Материал

Корпоративные ИИ-ассистенты и персональные данные: что сотрудникам нельзя загружать в LLM

Опубликовано: 27.03.2026 · Обновлено: 27.03.2026 · Время чтения: 20 мин

Полный разбор правовых рисков, технических уязвимостей и практических правил — специально для российского бизнеса

Введение: почему это важно прямо сейчас

Представьте типичный рабочий день менеджера по продажам. Клиент прислал сложное возражение по договору. Чтобы сэкономить время, сотрудник копирует переписку в ChatGPT — вместе с именем клиента, номером договора, условиями сделки — и просит нейросеть переформулировать ответ «более вежливо». Задача решена за 30 секунд. Но параллельно произошло кое-что ещё: персональные данные клиента ушли на серверы OpenAI в США без уведомления Роскомнадзора, без договора поручения обработки и без согласия субъекта.

По данным Chat2Desk [1], за 2025 год совокупный трафик на ИИ-платформы вырос в шесть раз. Сотрудники российских компаний ежедневно отправляют в ChatGPT, GigaChat, DeepSeek и другие публичные сервисы рабочие материалы: диалоги с клиентами, договоры, базы обращений, исходный код. Большинство даже не подозревают, что могут нарушить закон.

Эта статья предназначена для руководителей, юристов, специалистов по информационной безопасности, HR и — что немаловажно — для самих сотрудников, которые хотят работать эффективно, не создавая рисков для компании. Мы разберём, что именно нельзя загружать в LLM, почему, какие санкции предусмотрены российским законодательством и как выстроить безопасную работу с ИИ-ассистентами.

Часть 1. Как устроена угроза: куда уходят ваши данные

Что происходит с данными внутри публичного LLM

Большинство пользователей представляют взаимодействие с чат-ботом как приватный диалог. Реальность устроена иначе. Политика конфиденциальности OpenAI прямо указывает, что компания собирает пользовательский контент: запросы, загружаемые файлы, изображения и аудио [2]. Данные всех пользователей обрабатываются и хранятся на серверах в США. По умолчанию ChatGPT использует запросы пользователей для дообучения моделей — отключить это можно в настройках, но большинство пользователей не знают о такой возможности или не пользуются ею.

Есть и более тонкий механизм риска: эффект «меморизации». Языковые модели не просто «забывают» поданные на вход данные — они потенциально запоминают фрагменты обучающего корпуса и могут воспроизводить их при определённых запросах [3]. Исследование Northeastern University (2025) показывает, что LLM способны использовать «seemingly normal, harmless data» для вывода приватной информации — имён, адресов, паттернов поведения — даже без прямого запроса [4].

Дополнительный риск создаёт человеческий фактор: за качеством работы моделей следят асессоры — реальные сотрудники компании, просматривающие анонимизированные выборки диалогов. Ваш запрос, пусть и без прямых идентификаторов, может быть прочитан человеком.

Архитектурные уязвимости: OWASP Top 10 для LLM (2025)

Организация OWASP — Open Worldwide Application Security Project — ведёт актуальный перечень десяти критических угроз для LLM-приложений. Версия 2025 года существенно обновлена и отражает реальные инциденты [5]. Для корпоративного контекста наиболее релевантны следующие позиции:

  1. Prompt Injection (LLM01) — атаки через специально сформулированные запросы, способные переопределить поведение модели и вызвать раскрытие конфиденциальной информации. OWASP признаёт, что «нельзя залатать уязвимость к prompt injection — она эксплуатирует саму архитектуру LLM».
  2. Sensitive Information Disclosure (LLM02) — раскрытие чувствительных данных через выводы модели. В 2025 году эта угроза поднялась с шестого на второе место. Это происходит через обучающие данные, RAG-системы (retrieval-augmented generation), доступ к базам данных или просто через пользовательские вводы [5].
  3. Supply Chain (LLM03) — угрозы через цепочку поставок: вредоносные компоненты в готовых моделях и методах дообучения.
  4. Excessive Agency (LLM06) — чрезмерная автономия ИИ-агентов. Когда LLM получает доступ к почте, базам данных, CRM — одна скомпрометированная инструкция может спровоцировать массовую утечку или деструктивное действие.
  5. System Prompt Leakage (LLM07) — новая позиция 2025 года. Злоумышленники могут извлечь системные инструкции модели, содержащие внутренние правила, структуру прав доступа и конфигурационные данные.

Исследование Cota Capital (2025) зафиксировало, что 45% предприятий, опрошенных в 2024 году, столкнулись с утечкой данных через LLM [6]. McKinsey зафиксировал данные как главную угрозу при внедрении ИИ — выше галлюцинаций, этических рисков и нарушений авторских прав.

Что показывают реальные инциденты

Случай Samsung (апрель 2023) остаётся самым известным корпоративным прецедентом. За три недели после разрешения использовать ChatGPT трое инженеров умудрились передать в модель три порции конфиденциальных данных: исходный код для проверки ошибок, код для оптимизации и данные клиентов при создании протокола встречи [7]. Samsung немедленно запретил сотрудникам использовать ChatGPT, Google Bard и Bing на рабочих устройствах — под угрозой увольнения [8]. Вскоре аналогичные запреты ввели JPMorgan, Goldman Sachs и ряд других банков Уолл-стрит [9].

В январе 2025 года исследовательская команда Wiz обнаружила незащищённую базу данных DeepSeek, содержавшую около миллиона строк журналов: историю чатов, API-ключи и другие чувствительные данные [10]. В начале 2025 года хакер под псевдонимом «Gloomer» взломал инфраструктуру платформы OmniGPT и слил 30 000 адресов электронной почты, телефонных номеров и 34 миллиона строк переписки пользователей с ИИ-моделями, включая прикреплённые файлы, API-ключи и ссылки на документы [3].

Если инцидент с Samsung произошёл из-за наивности сотрудников, то взлом OmniGPT — наглядный пример того, что проблема не только в поведении людей: сами платформы могут быть скомпрометированы, и тогда всё, что когда-либо туда загружалось, становится доступным для злоумышленников.

Часть 2. Российское законодательство: что и как нарушается

Четыре нормы, которые нарушаются одновременно

Федеральный закон №152-ФЗ «О персональных данных» применяется к любой обработке данных, независимо от технологии — включая передачу текста в языковую модель. SecureGPT подробно разобрал правовую картину: при стандартном сценарии, когда сотрудник загружает клиентские данные в ChatGPT без корпоративной подписки, нарушаются одновременно четыре нормы [11]:

  1. Статья 12 — трансграничная передача в страну не из перечня Роскомнадзора без предварительного уведомления ведомства. США в этот перечень не входят, поэтому данные на серверах OpenAI, Claude, Perplexity требуют отдельной процедуры согласования.
  2. Часть 3 статьи 6 — отсутствие договора поручения обработки. Компания обязана заключить формальный договор с организацией, которой поручает обработку ПДн, с указанием перечня данных, допустимых действий, целей и обязательств по безопасности.
  3. Статья 9 — отсутствие согласия субъекта. С 1 сентября 2025 года это согласие должно быть оформлено отдельным документом. Клиент компании должен знать и письменно согласиться с тем, что его данные будут переданы в конкретный ИИ-сервис.
  4. Часть 5 статьи 18 — нарушение требования локализации. С 1 июля 2025 года введён прямой запрет на первичный трансграничный сбор персональных данных граждан РФ — то есть на использование зарубежных баз данных при сборе ПДн [12].

Важный нюанс: российские сервисы — GigaChat и YandexGPT — имеют серверы в России, поэтому статья 12 к ним неприменима. Однако это не снимает вопроса о договоре поручения обработки и согласии субъекта. DeepSeek формально находится в «безопасном» перечне Роскомнадзора (Китай в нём есть), хотя и здесь остаются другие правовые вопросы [11].

Новая система штрафов: 2025 год изменил правила

Федеральный закон №420-ФЗ от 30 ноября 2024 года существенно ужесточил административную ответственность за утечки и нарушения при работе с ПДн — изменения вступили в силу с 30 мая 2025 года [13]. Основные размеры санкций:

  1. За утечку данных от 1 000 до 10 000 субъектов — от 3 до 5 млн рублей для организаций.
  2. За утечку данных от 10 000 до 100 000 субъектов — от 5 до 10 млн рублей.
  3. За утечку данных свыше 100 000 субъектов или при утечке биометрии — от 15 до 20 млн рублей.
  4. Повторная утечка — оборотный штраф от 1% до 3% годовой выручки, минимум 20 млн, максимум 500 млн рублей.
  5. За нарушение локализации (хранение ПДн на зарубежных серверах) — первое нарушение до 6 млн рублей, повторное — до 18 млн рублей [12].
  6. За неуведомление Роскомнадзора об утечке — от 1 до 3 млн рублей.
  7. За нарушение трансграничной передачи — для юридических лиц от 150 до 300 тысяч рублей [12].

Специализированная судебная практика по передаче ПДн в ИИ-сервисы пока не сформирована. Но нормы 152-ФЗ применяются к любой обработке данных независимо от технологии [11]. Это означает: первые прецеденты в этой области — лишь вопрос времени.

Важно понимать, что ответственность несёт оператор персональных данных — компания — вне зависимости от того, по чьей вине произошла утечка: по вине подрядчика, сотрудника или технического сбоя [13].

Часть 3. Что именно нельзя загружать в LLM

Категории данных с повышенным режимом защиты

Российское законодательство и международные стандарты (GDPR, OWASP) выделяют несколько категорий данных, обращение с которыми в публичных LLM недопустимо.

Персональные данные клиентов и сотрудников включают: полное имя в сочетании с другими идентификаторами, дату рождения, домашний адрес, номера паспортов и водительских удостоверений, СНИЛС и ИНН, адреса электронной почты, номера телефонов. Особый режим установлен для специальных категорий ПДн: сведений о здоровье, расовой принадлежности, политических взглядах, религиозных убеждениях, биометрических данных — они обрабатываются только при наличии явного согласия субъекта.

Корпоративная конфиденциальная информация регулируется ФЗ-98 «О коммерческой тайне». К ней относятся: финансовые показатели и стратегические планы до их публикации, условия договоров с контрагентами, исходный код проприетарных систем, патентные разработки до подачи заявки, детали переговоров о сделках и M&A, данные о клиентской базе как конкурентное преимущество [11].

Медицинские и профессиональные тайны имеют особый статус: врачебная тайна регулируется ФЗ-323 «Об основах охраны здоровья граждан», адвокатская тайна — ФЗ-63 «Об адвокатской деятельности и адвокатуре», а передача таких сведений в публичные ИИ-сервисы несовместима с их правовой природой. Федеральная палата адвокатов прямо рекомендует не загружать данные клиентов в публичные ИИ-сервисы и анонимизировать материалы перед загрузкой [11].

Учётные данные и ключи доступа — пароли, PIN-коды, API-ключи, SSH-ключи, токены аутентификации — также категорически нельзя вставлять в запросы к LLM. Исследование Truffle Security показало около 11 900 действующих API-ключей, жёстко прошитых в открытые HTML- и JS-файлы из базы Common Crawl, — это прямое следствие того, что разработчики копируют код с реальными токенами в чат-боты [10].

Типичные сценарии — и почему они опасны

Сценарий первый: менеджер просит ИИ «красиво переписать» письмо клиенту, вставив исходный текст со всеми реквизитами. Результат: данные клиента уходят на иностранный сервер без согласия субъекта.

Сценарий второй: HR-специалист копирует в чат-бот фрагмент переписки из корпоративного мессенджера, чтобы получить совет по управлению конфликтной ситуацией. В тексте присутствуют персональные данные сотрудников и упоминания внутренних ролей [14].

Сценарий третий: разработчик вставляет в ChatGPT блок кода с реальными учётными данными базы данных, чтобы отладить запрос. Учётные данные фиксируются в истории чата и потенциально попадают в обучающий корпус.

Сценарий четвёртый: юрист загружает договор с клиентом целиком — с именами сторон, финансовыми условиями, обязательствами — и просит ИИ проверить формулировки. Нарушаются одновременно режим ПДн и коммерческой тайны.

Сценарий пятый: сотрудник бухгалтерии загружает скан счёта с реквизитами контрагента для автоматического извлечения данных. Банковские реквизиты и ИНН контрагента уходят во внешний сервис.

Часть 4. Феномен теневого ИИ: почему запреты не работают

Масштаб проблемы

По данным «Информзащиты» (2025), до 75% сотрудников уже используют ИИ-сервисы в своей повседневной работе — генерацию текстов, аналитику, обработку документов, переписку с клиентами [15]. При этом внедрение ИИ во многих компаниях происходит стихийно, без участия IT- и ИБ-подразделений.

Исследование MIT NANDA «State of AI in Business 2025» зафиксировало показательный парадокс: только 40% компаний оформили корпоративную подписку на LLM, но при этом в 90% организаций сотрудники регулярно используют личные ИИ-инструменты для рабочих задач [16]. Корпоративные решения внедрены в реальной работе лишь у 5% организаций. По данным другого исследования, 93% сотрудников вводили данные в генеративные ИИ-инструменты без корпоративного одобрения, а 60% из них делают это чаще, чем год назад [17].

Исследования Incomand (2025) показывают, что 8 из 10 сотрудников используют несанкционированные ИИ-инструменты, причём 32% скрывают эту деятельность [18]. LayerX Security установила, что примерно 18% сотрудников регулярно вставляют данные в генеративные ИИ-инструменты, и более 50% из этих действий содержат корпоративную информацию [19].

McKinsey зафиксировал ещё один тревожный факт: сотрудники применяют ИИ втрое чаще, чем полагают их руководители [20]. Это означает, что значительная часть корпоративных данных утекает «по умолчанию» — просто потому что никто не отслеживает масштаб явления.

Почему простой запрет неэффективен

Эксперты Kaspersky описывают ситуацию так: в масштабе компании обе крайности — полный запрет и полная свобода — неприменимы [21]. Для строго регулируемых отраслей или подразделений, работающих с особо конфиденциальными данными, запретительная политика допустима. Но в общем случае она экономически неэффективна и ведёт к технологическому отставанию.

Главная причина провала запретов — удобство. Сотрудники выбирают публичные ИИ-инструменты, потому что корпоративные инструменты часто уступают им в функциональности, работают медленнее или имеют ограниченные возможности [22]. Почувствовав разницу, люди неизбежно находят способы использовать более мощные публичные аналоги — в том числе с личных устройств, обходя корпоративные блокировки.

Национальный Альянс по кибербезопасности (США) в отчёте 2024 года зафиксировал, что лишь 48% сотрудников прошли какое-либо обучение по вопросам безопасного использования ИИ [9]. Это означает, что большинство людей действуют не из злого умысла, а из-за простого незнания рисков.

Часть 5. Как работать с ИИ безопасно: практические рекомендации

Принцип «публичной доски»

Простейший практический тест для сотрудника — задать себе вопрос перед отправкой запроса: «Мне будет комфортно, если этот текст увидят тысячи людей, например, на публичном форуме?» [23]. Если ответ «нет» — нужно переформулировать запрос, убрав конфиденциальную информацию.

Анонимизация как обязательный инструмент

Если необходимо передать в LLM текст с персональными или коммерчески значимыми данными, следует предварительно заменить их заглушками. Вместо реального имени клиента — «Клиент А», вместо названия контрагента — «Компания Б», вместо конкретного проекта — «Проект Х». Для работы модели контекста часто достаточно — а данные остаются защищёнными. Это не абсолютная защита: хорошо обученные модели могут делать выводы из косвенных признаков, — но существенно снижает риск прямой идентификации.

Чек-лист: что проверить перед загрузкой данных в LLM

  1. Присутствуют ли в тексте полные имена физических лиц в сочетании с другими идентификаторами?
  2. Есть ли номера документов (паспорт, СНИЛС, ИНН физлица)?
  3. Содержит ли текст медицинские сведения, данные о здоровье?
  4. Присутствуют ли финансовые данные клиентов или сотрудников?
  5. Есть ли в тексте коммерчески значимая информация под NDA или режимом коммерческой тайны?
  6. Присутствует ли исходный код, содержащий ключи, токены или учётные данные?
  7. Входят ли данные в перечень конфиденциальной информации, утверждённый в вашей компании?
  8. Относится ли текст к переписке, защищённой профессиональной тайной (адвокат, врач, аудитор)?

Если хотя бы один пункт отмечен — данные в публичный LLM не загружаются.

Настройки приватности: что сделать прямо сейчас

Для пользователей ChatGPT: Settings → Data Controls → «Improve the model for everyone» → переключатель в положение OFF. Это запрещает OpenAI использовать ваши данные для обучения [23]. Аналогичные настройки есть у других платформ.

Для корпоративных пользователей: ChatGPT Enterprise, ChatGPT Team, API-версии по умолчанию не используют данные для обучения. Это прямо указано в документации OpenAI. При покупке корпоративной подписки следует проверить, подписан ли договор обработки данных (Data Processing Agreement / DPA) с провайдером и соответствует ли он требованиям 152-ФЗ.

Корпоративные политики: что должна сделать компания

Одних технических настроек недостаточно. Организационная сторона включает несколько обязательных элементов.

Первое — разработать и утвердить политику использования ИИ-инструментов. Она должна содержать явный перечень разрешённых сервисов, категории данных, которые нельзя загружать, и процедуру получения согласований для исключений.

Второе — включить ИИ-безопасность в программы обучения персонала. Регулярные тренинги должны разбирать конкретные сценарии: что произошло с Samsung, какие данные относятся к ПДн, как анонимизировать запросы.

Третье — внедрить технические меры контроля. Системы DLP (Data Loss Prevention) способны анализировать трафик в ИИ-сервисы и блокировать передачу данных, соответствующих паттернам ПДн — адресам электронной почты корпоративного формата, обращениям к персоналиям [14]. Некоторые компании устанавливают расширения для браузера, которые предупреждают: «Вы собираетесь вставить текст в ChatGPT — убедитесь, что он не содержит конфиденциальных данных».

Четвёртое — обеспечить реальную корпоративную альтернативу. Если сотрудники используют теневой ИИ, значит, их потребности не удовлетворяет текущий инструментарий. Предоставление безопасных, одобренных инструментов — более эффективная стратегия, чем запрет [22].

On-premise и гибридные модели: когда нужна локальная развёртка

Для организаций, работающих с особо чувствительными данными — медицинских, финансовых, государственных — публичные облачные LLM принципиально неприемлемы. Здесь применимы:

  1. On-premise развёртка открытых LLM-моделей (Llama, Mistral и их российские аналоги) на собственной инфраструктуре — данные физически не покидают контур компании.
  2. Приватные облачные развёртки с аттестацией на соответствующий уровень защиты (УЗ-1 для медицинских данных).
  3. RAG-архитектуры (Retrieval-Augmented Generation) с жёстким контролем источников данных и разграничением прав доступа на уровне документов.

CNews (2026) указывает, что именно такой подход снимает вопросы соответствия 152-ФЗ и позволяет тонко настроить политики безопасности [24].

Часть 6. Типичные ошибки и как их избежать

Ошибка первая: «я ничего плохого не делаю, просто прошу помочь с текстом»

Намерение не имеет правового значения. С точки зрения 152-ФЗ передача персональных данных в иностранный ИИ-сервис — это передача персональных данных, вне зависимости от того, с какой целью это было сделано. Ответственность оператора не зависит от умысла конкретного сотрудника.

Ошибка вторая: «я перешёл на российский сервис — значит, всё законно»

Переход на GigaChat или YandexGPT снимает риск по статье 12 (трансграничная передача), но не решает вопрос согласия субъекта и договора поручения обработки. Если клиент не знает, что его данные обрабатывает сторонний ИИ-сервис — это нарушение, даже если сервер находится в России.

Ошибка третья: «у нас корпоративная подписка — значит, данные защищены»

Корпоративная подписка даёт дополнительные гарантии (данные не используются для обучения, подписывается DPA), но не снимает все риски. Архитектурные уязвимости, описанные OWASP, присутствуют и в корпоративных версиях. Кроме того, нужно убедиться, что DPA соответствует требованиям российского законодательства — зарубежные шаблоны DPA написаны под GDPR, а не под 152-ФЗ.

Ошибка четвёртая: «я просто удалю чат — и данные исчезнут»

Удаление чата в интерфейсе пользователя и удаление данных с серверов провайдера — разные вещи. Samsung обеспокоила именно эта проблема: данные, загруженные на такие платформы, хранятся на внешних серверах, из-за чего их легко найти, но сложно удалить [7].

Ошибка пятая: «наш ИТ-отдел всё контролирует»

Теневой ИИ по определению обходит корпоративный контроль. Сотрудники могут использовать личные устройства, персональные аккаунты, мобильные приложения или даже фотографировать экран монитора смартфоном [21]. Технический контроль должен дополняться культурой безопасности и реальными корпоративными альтернативами.

Часть 7. Тренды и будущее регулирования

Регуляторное давление будет нарастать

Роскомнадзор с 1 июля 2025 года запустил автоматическую проверку сайтов на базе ИИ [25]. Это означает, что масштаб проверок будет расти, а выявление нарушений — ускоряться. В 2025 году регулирование, по оценке экспертов Хабра, «сползло в область инженерной рутины»: логирование, хранение данных, объяснимость, обучение сотрудников стали практическими требованиями, а не декларативными [26].

На международном уровне OWASP ежегодно обновляет перечень угроз для LLM, а EU AI Act уже вступает в силу поэтапно. Принцип экстерриториального действия регуляций (аналогичный GDPR) означает, что российские компании, работающие с европейскими данными, попадают под двойное регуляторное давление.

Безопасный ИИ станет стандартом, а не опцией

Эксперты Computerra прогнозируют: в ближайшие годы мы увидим становление безопасного ИИ как стандартной опции — аналогично тому, как когда-то антивирусы стали обязательным элементом корпоративной ИТ-инфраструктуры [22]. Компании, которые сегодня считают вложения в защиту ИИ-инструментов избыточными, через несколько лет будут вынуждены догонять.

Регуляторные требования сделают наличие политик и технических средств контроля использования ИИ обязательным условием прохождения проверок и получения лицензий для ряда отраслей.

Агентный ИИ создаёт новый класс рисков

Gartner прогнозирует, что через несколько лет треть корпоративных систем будет работать на автономных ИИ-агентах [27]. Когда ИИ перестаёт просто отвечать на вопросы и начинает самостоятельно отправлять письма, запрашивать данные из баз, вносить изменения в системы — риск утечки и несанкционированных действий возрастает многократно. OWASP специально выделил «Excessive Agency» как одну из критических угроз 2025 года.

Промпт-инъекции в агентном контексте особенно опасны: атакующий может спрятать инструкцию в документе, который ИИ-агент обрабатывает, и заставить агента выполнить произвольное действие с привилегиями обслуживаемого пользователя [5].

Заключение: что делать прямо сейчас

Риски, описанные в этой статье, реальны и уже материализуются в виде инцидентов, штрафов и репутационного ущерба. Но они не означают, что нужно запрещать ИИ. Нужно выстроить управляемую практику его использования.

Для сотрудников: применяйте тест «публичной доски» к каждому запросу, никогда не загружайте ПДн клиентов и учётные данные, анонимизируйте данные перед загрузкой, используйте только одобренные корпоративным IT-отделом сервисы.

Для компаний: разработайте и внедрите политику использования ИИ с конкретным перечнем разрешённых инструментов, организуйте обучение персонала с разбором реальных сценариев, обеспечьте реальную корпоративную альтернативу публичным сервисам, внедрите технический контроль (DLP, мониторинг), заключите DPA с провайдерами ИИ и проверьте его соответствие 152-ФЗ.

Для юристов и безопасников: подготовьте шаблон согласия субъекта на передачу данных ИИ-системе, обновите перечень конфиденциальной информации с учётом ИИ-рисков, проведите аудит текущего использования ИИ в компании, включая теневые инструменты.

О «Пятом факторе»: как знать, где хранятся ваши ПДн

Одна из ключевых проблем, описанных в этой статье, — компании не имеют актуальной картины того, где именно хранятся их персональные данные. Новые поля появляются в базах данных, новые интеграции возникают с подрядчиками, новые сервисы внедряются без участия ИБ. В этом хаосе организации не видят новых рисков вовремя.

«Пятый фактор» — это on-premise платформа для автоматического обнаружения, инвентаризации и контроля персональных данных в корпоративных системах: базах данных, хранилищах, почте, AD/LDAP, CRM, 1С, API. Ключевое отличие от аналогов — работа по принципу privacy-by-design: платформа оперирует метаданными, структурой и агрегатами, не передавая и не сохраняя «сырые» значения ПДн. Это означает, что сам инструмент контроля не становится источником нового риска.

В контексте угроз, описанных в этой статье, «Пятый фактор» решает конкретную задачу: если сотрудник подключает новый ИИ-сервис как интеграцию или создаёт новый поток данных, платформа обнаруживает изменение автуального ИТ-ландшафта, показывает, какие данные затронуты, кто их владелец, и позволяет оперативно оценить соответствие требованиям 152-ФЗ. Компании получают живую «карту ПДн» и видят новые риски раньше, чем они превращаются в инцидент.

Источники

[1] Chat2Desk — Безопасное использование ИИ. Январь 2026 — https://chat2desk.com/blog/stati/bezopasnoe-ispolzovanie-ii

[2] Kaspersky — Как настроить приватность и безопасность в ChatGPT. Октябрь 2025 — https://www.kaspersky.ru/blog/chatgpt-privacy-and-security/40631/

[3] Lasso Security — LLM Data Privacy: Protecting Enterprise Data in the World of AI. 2025 — https://www.lasso.security/blog/llm-data-privacy

[4] Northeastern University News — The five crucial ways LLMs can endanger your privacy. Ноябрь 2025 — https://news.northeastern.edu/2025/11/21/five-ways-llms-expose-your-personal-data/

[5] OWASP — Top 10 for LLM Applications 2025 — https://genai.owasp.org/llm-top-10/

[6] Cota Capital — Part 1: The Many Ways LLMs Leak Data. Октябрь 2025 — https://www.cotacapital.com/knowledge-base/part-1-the-many-ways-llms-leak-data-and-how-to-solve-it/

[7] RBC — Samsung запретила сотрудникам пользоваться ChatGPT. Май 2023 — https://www.rbc.ru/rbcfreenews/64509f359a79475fdcc3b61b

[8] iXBT — Вплоть до увольнения: Samsung запретила ChatGPT. Май 2023 — https://www.ixbt.com/news/2023/05/02/vplot-do-uvolnenija-samsung-zapretila-sotrudnikam-ispolzovat-chatgpt-i-analogi-na-rabochih-pk-i-smartfonah-posle.html

[9] Sombrainc — LLM Security Risks in 2026: Prompt Injection, RAG, and Shadow AI. Январь 2026 — https://sombrainc.com/blog/llm-security-risks-2026

[10] NSFOCUS — The Invisible Battlefield Behind LLM Security Crisis. Март 2025 — https://nsfocusglobal.com/the-invisible-battlefield-behind-llm-security-crisis/

[11] SecureGPT — ИИ и персональные данные: юридические риски для бизнеса — https://securegpt.ru/blog/ai-personal-data-legal-risks

[12] Action-Market — Трансграничная передача персональных данных: новые правила 2025 — https://action-market.ru/blog/biznes/transgranichnaya-peredacha-personalnyh-dannyh-novye-pravila-i-trebovaniya-dlya-biznesa-v-2025-godu/

[13] B-152.ru — Закон о персональных данных: что изменилось в 2025–2026 годах — https://b-152.ru/zakon-o-personalnyh-dannyh-2025

[14] Solar Security / Habr — ИИ-ассистенты как новый вектор риска. Декабрь 2025 — https://habr.com/ru/companies/solarsecurity/articles/978494/

[15] CISOclub — Shadow AI и фишинг: как неконтролируемый AI угрожает кибербезопасности. Февраль 2026 — https://cisoclub.ru/kazhdyj-vtoroj-ciso-schitaet-ii-istochnikom-novyh-kiberugroz/

[16] ScrumTrek — GenAI Divide: Итоги внедрения ИИ в бизнесе 2025 (MIT NANDA). Сентябрь 2025 — https://scrumtrek.ru/blog/ai/16097/ai-in-business-2025/

[17] Appercase — Теневой ИИ на подъёме: как превратить его в стратегическое преимущество — https://www.appercase.ru/news/91127/

[18] Incomand / ЕМДЕВ — Shadow AI: Угрозы ИБ при использовании публичных ИИ инструментов — https://incomand.ru/en/blog/-/blogs/shadow-ai

[19] eSecurity Planet — 77% of Employees Leak Data via ChatGPT, Report Finds (LayerX Security). Октябрь 2025 — https://www.esecurityplanet.com/news/shadow-ai-chatgpt-dlp/

[20] Ведомости.Технологии — Как российский бизнес работает с ИИ-агентами. Ноябрь 2025 — https://www.vedomosti.ru/technologies/trendsrub/articles/2025/11/24/1156703-rabotaet-ii-agentami

[21] Kaspersky Blog — Как бизнесу реагировать на применение личных ИИ сотрудниками. Сентябрь 2025 — https://www.kaspersky.ru/blog/shadow-ai-3-policies/40409/

[22] Computerra — Теневой ИИ: почему запреты не работают. 2025 — https://www.computerra.ru/338376/tenevoj-ii-pochemu-zaprety-ne-rabotayut-i-kak-biznes-vynuzhden-podstraivatsya-pod-sotrudnikov/

[23] iXBT Live — Гайд по цифровой паранойе: правила работы с AI. Июль 2025 — https://www.ixbt.com/live/sw/gayd-po-cifrovoy-paranoye-pochemu-ya-zapretila-chatgpt-ispolzovat-moi-dannye-i-kakih-pravil-priderzhivayus-pri-rabote-s-ai.html

[24] CNews — Обзор: ИИ-ассистенты для бизнеса 2026. Январь 2026 — https://www.cnews.ru/reviews/ii-assistenty_dlya_biznesa_2025/cases/kak_sozdat_korporativnogo_ii-eksperta

[25] Klerk.ru — Обработка персональных данных: новые требования с 01.07.2025 и 01.09.2025 — https://www.klerk.ru/blogs/fedresurs/658225/

[26] Habr — Итоги 2025 в AI: прорывы, которые сдвинули индустрию. Декабрь 2025 — https://habr.com/ru/articles/979852/

[27] Sostav.ru — Главные тренды ноября 2025: гибкий найм и цифровые ассистенты в HR — https://www.sostav.ru/blogs/282131/71383

Быстрые вопросы и ответы

Что такое LLM?

LLM — это языковые модели, которые обрабатывают текстовые данные.

Какие данные нельзя загружать в LLM?

Нельзя загружать персональные данные клиентов и конфиденциальную информацию.

Каковы риски использования LLM?

Риски включают утечку данных и нарушение законодательства о персональных данных.

Что говорит российское законодательство о передаче данных?

Передача данных в LLM без согласия нарушает несколько статей закона о персональных данных.

Как защитить данные при использовании ИИ?

Необходимо использовать корпоративные решения и соблюдать правила обработки данных.

Нужна консультация по вашему контуру?
Покажем, где появляются персональные данные и какие риски требуют внимания в первую очередь.