Корпоративные ИИ-ассистенты и персональные данные: что сотрудникам нельзя загружать в LLM
Полный разбор правовых рисков, технических уязвимостей и практических правил — специально для российского бизнеса
Введение: почему это важно прямо сейчас
Представьте типичный рабочий день менеджера по продажам. Клиент прислал сложное возражение по договору. Чтобы сэкономить время, сотрудник копирует переписку в ChatGPT — вместе с именем клиента, номером договора, условиями сделки — и просит нейросеть переформулировать ответ «более вежливо». Задача решена за 30 секунд. Но параллельно произошло кое-что ещё: персональные данные клиента ушли на серверы OpenAI в США без уведомления Роскомнадзора, без договора поручения обработки и без согласия субъекта.
По данным Chat2Desk [1], за 2025 год совокупный трафик на ИИ-платформы вырос в шесть раз. Сотрудники российских компаний ежедневно отправляют в ChatGPT, GigaChat, DeepSeek и другие публичные сервисы рабочие материалы: диалоги с клиентами, договоры, базы обращений, исходный код. Большинство даже не подозревают, что могут нарушить закон.
Эта статья предназначена для руководителей, юристов, специалистов по информационной безопасности, HR и — что немаловажно — для самих сотрудников, которые хотят работать эффективно, не создавая рисков для компании. Мы разберём, что именно нельзя загружать в LLM, почему, какие санкции предусмотрены российским законодательством и как выстроить безопасную работу с ИИ-ассистентами.
Часть 1. Как устроена угроза: куда уходят ваши данные
Что происходит с данными внутри публичного LLM
Большинство пользователей представляют взаимодействие с чат-ботом как приватный диалог. Реальность устроена иначе. Политика конфиденциальности OpenAI прямо указывает, что компания собирает пользовательский контент: запросы, загружаемые файлы, изображения и аудио [2]. Данные всех пользователей обрабатываются и хранятся на серверах в США. По умолчанию ChatGPT использует запросы пользователей для дообучения моделей — отключить это можно в настройках, но большинство пользователей не знают о такой возможности или не пользуются ею.
Есть и более тонкий механизм риска: эффект «меморизации». Языковые модели не просто «забывают» поданные на вход данные — они потенциально запоминают фрагменты обучающего корпуса и могут воспроизводить их при определённых запросах [3]. Исследование Northeastern University (2025) показывает, что LLM способны использовать «seemingly normal, harmless data» для вывода приватной информации — имён, адресов, паттернов поведения — даже без прямого запроса [4].
Дополнительный риск создаёт человеческий фактор: за качеством работы моделей следят асессоры — реальные сотрудники компании, просматривающие анонимизированные выборки диалогов. Ваш запрос, пусть и без прямых идентификаторов, может быть прочитан человеком.
Архитектурные уязвимости: OWASP Top 10 для LLM (2025)
Организация OWASP — Open Worldwide Application Security Project — ведёт актуальный перечень десяти критических угроз для LLM-приложений. Версия 2025 года существенно обновлена и отражает реальные инциденты [5]. Для корпоративного контекста наиболее релевантны следующие позиции:
- Prompt Injection (LLM01) — атаки через специально сформулированные запросы, способные переопределить поведение модели и вызвать раскрытие конфиденциальной информации. OWASP признаёт, что «нельзя залатать уязвимость к prompt injection — она эксплуатирует саму архитектуру LLM».
- Sensitive Information Disclosure (LLM02) — раскрытие чувствительных данных через выводы модели. В 2025 году эта угроза поднялась с шестого на второе место. Это происходит через обучающие данные, RAG-системы (retrieval-augmented generation), доступ к базам данных или просто через пользовательские вводы [5].
- Supply Chain (LLM03) — угрозы через цепочку поставок: вредоносные компоненты в готовых моделях и методах дообучения.
- Excessive Agency (LLM06) — чрезмерная автономия ИИ-агентов. Когда LLM получает доступ к почте, базам данных, CRM — одна скомпрометированная инструкция может спровоцировать массовую утечку или деструктивное действие.
- System Prompt Leakage (LLM07) — новая позиция 2025 года. Злоумышленники могут извлечь системные инструкции модели, содержащие внутренние правила, структуру прав доступа и конфигурационные данные.
Исследование Cota Capital (2025) зафиксировало, что 45% предприятий, опрошенных в 2024 году, столкнулись с утечкой данных через LLM [6]. McKinsey зафиксировал данные как главную угрозу при внедрении ИИ — выше галлюцинаций, этических рисков и нарушений авторских прав.
Что показывают реальные инциденты
Случай Samsung (апрель 2023) остаётся самым известным корпоративным прецедентом. За три недели после разрешения использовать ChatGPT трое инженеров умудрились передать в модель три порции конфиденциальных данных: исходный код для проверки ошибок, код для оптимизации и данные клиентов при создании протокола встречи [7]. Samsung немедленно запретил сотрудникам использовать ChatGPT, Google Bard и Bing на рабочих устройствах — под угрозой увольнения [8]. Вскоре аналогичные запреты ввели JPMorgan, Goldman Sachs и ряд других банков Уолл-стрит [9].
В январе 2025 года исследовательская команда Wiz обнаружила незащищённую базу данных DeepSeek, содержавшую около миллиона строк журналов: историю чатов, API-ключи и другие чувствительные данные [10]. В начале 2025 года хакер под псевдонимом «Gloomer» взломал инфраструктуру платформы OmniGPT и слил 30 000 адресов электронной почты, телефонных номеров и 34 миллиона строк переписки пользователей с ИИ-моделями, включая прикреплённые файлы, API-ключи и ссылки на документы [3].
Если инцидент с Samsung произошёл из-за наивности сотрудников, то взлом OmniGPT — наглядный пример того, что проблема не только в поведении людей: сами платформы могут быть скомпрометированы, и тогда всё, что когда-либо туда загружалось, становится доступным для злоумышленников.
Часть 2. Российское законодательство: что и как нарушается
Четыре нормы, которые нарушаются одновременно
Федеральный закон №152-ФЗ «О персональных данных» применяется к любой обработке данных, независимо от технологии — включая передачу текста в языковую модель. SecureGPT подробно разобрал правовую картину: при стандартном сценарии, когда сотрудник загружает клиентские данные в ChatGPT без корпоративной подписки, нарушаются одновременно четыре нормы [11]:
- Статья 12 — трансграничная передача в страну не из перечня Роскомнадзора без предварительного уведомления ведомства. США в этот перечень не входят, поэтому данные на серверах OpenAI, Claude, Perplexity требуют отдельной процедуры согласования.
- Часть 3 статьи 6 — отсутствие договора поручения обработки. Компания обязана заключить формальный договор с организацией, которой поручает обработку ПДн, с указанием перечня данных, допустимых действий, целей и обязательств по безопасности.
- Статья 9 — отсутствие согласия субъекта. С 1 сентября 2025 года это согласие должно быть оформлено отдельным документом. Клиент компании должен знать и письменно согласиться с тем, что его данные будут переданы в конкретный ИИ-сервис.
- Часть 5 статьи 18 — нарушение требования локализации. С 1 июля 2025 года введён прямой запрет на первичный трансграничный сбор персональных данных граждан РФ — то есть на использование зарубежных баз данных при сборе ПДн [12].
Важный нюанс: российские сервисы — GigaChat и YandexGPT — имеют серверы в России, поэтому статья 12 к ним неприменима. Однако это не снимает вопроса о договоре поручения обработки и согласии субъекта. DeepSeek формально находится в «безопасном» перечне Роскомнадзора (Китай в нём есть), хотя и здесь остаются другие правовые вопросы [11].
Новая система штрафов: 2025 год изменил правила
Федеральный закон №420-ФЗ от 30 ноября 2024 года существенно ужесточил административную ответственность за утечки и нарушения при работе с ПДн — изменения вступили в силу с 30 мая 2025 года [13]. Основные размеры санкций:
- За утечку данных от 1 000 до 10 000 субъектов — от 3 до 5 млн рублей для организаций.
- За утечку данных от 10 000 до 100 000 субъектов — от 5 до 10 млн рублей.
- За утечку данных свыше 100 000 субъектов или при утечке биометрии — от 15 до 20 млн рублей.
- Повторная утечка — оборотный штраф от 1% до 3% годовой выручки, минимум 20 млн, максимум 500 млн рублей.
- За нарушение локализации (хранение ПДн на зарубежных серверах) — первое нарушение до 6 млн рублей, повторное — до 18 млн рублей [12].
- За неуведомление Роскомнадзора об утечке — от 1 до 3 млн рублей.
- За нарушение трансграничной передачи — для юридических лиц от 150 до 300 тысяч рублей [12].
Специализированная судебная практика по передаче ПДн в ИИ-сервисы пока не сформирована. Но нормы 152-ФЗ применяются к любой обработке данных независимо от технологии [11]. Это означает: первые прецеденты в этой области — лишь вопрос времени.
Важно понимать, что ответственность несёт оператор персональных данных — компания — вне зависимости от того, по чьей вине произошла утечка: по вине подрядчика, сотрудника или технического сбоя [13].
Часть 3. Что именно нельзя загружать в LLM
Категории данных с повышенным режимом защиты
Российское законодательство и международные стандарты (GDPR, OWASP) выделяют несколько категорий данных, обращение с которыми в публичных LLM недопустимо.
Персональные данные клиентов и сотрудников включают: полное имя в сочетании с другими идентификаторами, дату рождения, домашний адрес, номера паспортов и водительских удостоверений, СНИЛС и ИНН, адреса электронной почты, номера телефонов. Особый режим установлен для специальных категорий ПДн: сведений о здоровье, расовой принадлежности, политических взглядах, религиозных убеждениях, биометрических данных — они обрабатываются только при наличии явного согласия субъекта.
Корпоративная конфиденциальная информация регулируется ФЗ-98 «О коммерческой тайне». К ней относятся: финансовые показатели и стратегические планы до их публикации, условия договоров с контрагентами, исходный код проприетарных систем, патентные разработки до подачи заявки, детали переговоров о сделках и M&A, данные о клиентской базе как конкурентное преимущество [11].
Медицинские и профессиональные тайны имеют особый статус: врачебная тайна регулируется ФЗ-323 «Об основах охраны здоровья граждан», адвокатская тайна — ФЗ-63 «Об адвокатской деятельности и адвокатуре», а передача таких сведений в публичные ИИ-сервисы несовместима с их правовой природой. Федеральная палата адвокатов прямо рекомендует не загружать данные клиентов в публичные ИИ-сервисы и анонимизировать материалы перед загрузкой [11].
Учётные данные и ключи доступа — пароли, PIN-коды, API-ключи, SSH-ключи, токены аутентификации — также категорически нельзя вставлять в запросы к LLM. Исследование Truffle Security показало около 11 900 действующих API-ключей, жёстко прошитых в открытые HTML- и JS-файлы из базы Common Crawl, — это прямое следствие того, что разработчики копируют код с реальными токенами в чат-боты [10].
Типичные сценарии — и почему они опасны
Сценарий первый: менеджер просит ИИ «красиво переписать» письмо клиенту, вставив исходный текст со всеми реквизитами. Результат: данные клиента уходят на иностранный сервер без согласия субъекта.
Сценарий второй: HR-специалист копирует в чат-бот фрагмент переписки из корпоративного мессенджера, чтобы получить совет по управлению конфликтной ситуацией. В тексте присутствуют персональные данные сотрудников и упоминания внутренних ролей [14].
Сценарий третий: разработчик вставляет в ChatGPT блок кода с реальными учётными данными базы данных, чтобы отладить запрос. Учётные данные фиксируются в истории чата и потенциально попадают в обучающий корпус.
Сценарий четвёртый: юрист загружает договор с клиентом целиком — с именами сторон, финансовыми условиями, обязательствами — и просит ИИ проверить формулировки. Нарушаются одновременно режим ПДн и коммерческой тайны.
Сценарий пятый: сотрудник бухгалтерии загружает скан счёта с реквизитами контрагента для автоматического извлечения данных. Банковские реквизиты и ИНН контрагента уходят во внешний сервис.
Часть 4. Феномен теневого ИИ: почему запреты не работают
Масштаб проблемы
По данным «Информзащиты» (2025), до 75% сотрудников уже используют ИИ-сервисы в своей повседневной работе — генерацию текстов, аналитику, обработку документов, переписку с клиентами [15]. При этом внедрение ИИ во многих компаниях происходит стихийно, без участия IT- и ИБ-подразделений.
Исследование MIT NANDA «State of AI in Business 2025» зафиксировало показательный парадокс: только 40% компаний оформили корпоративную подписку на LLM, но при этом в 90% организаций сотрудники регулярно используют личные ИИ-инструменты для рабочих задач [16]. Корпоративные решения внедрены в реальной работе лишь у 5% организаций. По данным другого исследования, 93% сотрудников вводили данные в генеративные ИИ-инструменты без корпоративного одобрения, а 60% из них делают это чаще, чем год назад [17].
Исследования Incomand (2025) показывают, что 8 из 10 сотрудников используют несанкционированные ИИ-инструменты, причём 32% скрывают эту деятельность [18]. LayerX Security установила, что примерно 18% сотрудников регулярно вставляют данные в генеративные ИИ-инструменты, и более 50% из этих действий содержат корпоративную информацию [19].
McKinsey зафиксировал ещё один тревожный факт: сотрудники применяют ИИ втрое чаще, чем полагают их руководители [20]. Это означает, что значительная часть корпоративных данных утекает «по умолчанию» — просто потому что никто не отслеживает масштаб явления.
Почему простой запрет неэффективен
Эксперты Kaspersky описывают ситуацию так: в масштабе компании обе крайности — полный запрет и полная свобода — неприменимы [21]. Для строго регулируемых отраслей или подразделений, работающих с особо конфиденциальными данными, запретительная политика допустима. Но в общем случае она экономически неэффективна и ведёт к технологическому отставанию.
Главная причина провала запретов — удобство. Сотрудники выбирают публичные ИИ-инструменты, потому что корпоративные инструменты часто уступают им в функциональности, работают медленнее или имеют ограниченные возможности [22]. Почувствовав разницу, люди неизбежно находят способы использовать более мощные публичные аналоги — в том числе с личных устройств, обходя корпоративные блокировки.
Национальный Альянс по кибербезопасности (США) в отчёте 2024 года зафиксировал, что лишь 48% сотрудников прошли какое-либо обучение по вопросам безопасного использования ИИ [9]. Это означает, что большинство людей действуют не из злого умысла, а из-за простого незнания рисков.
Часть 5. Как работать с ИИ безопасно: практические рекомендации
Принцип «публичной доски»
Простейший практический тест для сотрудника — задать себе вопрос перед отправкой запроса: «Мне будет комфортно, если этот текст увидят тысячи людей, например, на публичном форуме?» [23]. Если ответ «нет» — нужно переформулировать запрос, убрав конфиденциальную информацию.
Анонимизация как обязательный инструмент
Если необходимо передать в LLM текст с персональными или коммерчески значимыми данными, следует предварительно заменить их заглушками. Вместо реального имени клиента — «Клиент А», вместо названия контрагента — «Компания Б», вместо конкретного проекта — «Проект Х». Для работы модели контекста часто достаточно — а данные остаются защищёнными. Это не абсолютная защита: хорошо обученные модели могут делать выводы из косвенных признаков, — но существенно снижает риск прямой идентификации.
Чек-лист: что проверить перед загрузкой данных в LLM
- Присутствуют ли в тексте полные имена физических лиц в сочетании с другими идентификаторами?
- Есть ли номера документов (паспорт, СНИЛС, ИНН физлица)?
- Содержит ли текст медицинские сведения, данные о здоровье?
- Присутствуют ли финансовые данные клиентов или сотрудников?
- Есть ли в тексте коммерчески значимая информация под NDA или режимом коммерческой тайны?
- Присутствует ли исходный код, содержащий ключи, токены или учётные данные?
- Входят ли данные в перечень конфиденциальной информации, утверждённый в вашей компании?
- Относится ли текст к переписке, защищённой профессиональной тайной (адвокат, врач, аудитор)?
Если хотя бы один пункт отмечен — данные в публичный LLM не загружаются.
Настройки приватности: что сделать прямо сейчас
Для пользователей ChatGPT: Settings → Data Controls → «Improve the model for everyone» → переключатель в положение OFF. Это запрещает OpenAI использовать ваши данные для обучения [23]. Аналогичные настройки есть у других платформ.
Для корпоративных пользователей: ChatGPT Enterprise, ChatGPT Team, API-версии по умолчанию не используют данные для обучения. Это прямо указано в документации OpenAI. При покупке корпоративной подписки следует проверить, подписан ли договор обработки данных (Data Processing Agreement / DPA) с провайдером и соответствует ли он требованиям 152-ФЗ.
Корпоративные политики: что должна сделать компания
Одних технических настроек недостаточно. Организационная сторона включает несколько обязательных элементов.
Первое — разработать и утвердить политику использования ИИ-инструментов. Она должна содержать явный перечень разрешённых сервисов, категории данных, которые нельзя загружать, и процедуру получения согласований для исключений.
Второе — включить ИИ-безопасность в программы обучения персонала. Регулярные тренинги должны разбирать конкретные сценарии: что произошло с Samsung, какие данные относятся к ПДн, как анонимизировать запросы.
Третье — внедрить технические меры контроля. Системы DLP (Data Loss Prevention) способны анализировать трафик в ИИ-сервисы и блокировать передачу данных, соответствующих паттернам ПДн — адресам электронной почты корпоративного формата, обращениям к персоналиям [14]. Некоторые компании устанавливают расширения для браузера, которые предупреждают: «Вы собираетесь вставить текст в ChatGPT — убедитесь, что он не содержит конфиденциальных данных».
Четвёртое — обеспечить реальную корпоративную альтернативу. Если сотрудники используют теневой ИИ, значит, их потребности не удовлетворяет текущий инструментарий. Предоставление безопасных, одобренных инструментов — более эффективная стратегия, чем запрет [22].
On-premise и гибридные модели: когда нужна локальная развёртка
Для организаций, работающих с особо чувствительными данными — медицинских, финансовых, государственных — публичные облачные LLM принципиально неприемлемы. Здесь применимы:
- On-premise развёртка открытых LLM-моделей (Llama, Mistral и их российские аналоги) на собственной инфраструктуре — данные физически не покидают контур компании.
- Приватные облачные развёртки с аттестацией на соответствующий уровень защиты (УЗ-1 для медицинских данных).
- RAG-архитектуры (Retrieval-Augmented Generation) с жёстким контролем источников данных и разграничением прав доступа на уровне документов.
CNews (2026) указывает, что именно такой подход снимает вопросы соответствия 152-ФЗ и позволяет тонко настроить политики безопасности [24].
Часть 6. Типичные ошибки и как их избежать
Ошибка первая: «я ничего плохого не делаю, просто прошу помочь с текстом»
Намерение не имеет правового значения. С точки зрения 152-ФЗ передача персональных данных в иностранный ИИ-сервис — это передача персональных данных, вне зависимости от того, с какой целью это было сделано. Ответственность оператора не зависит от умысла конкретного сотрудника.
Ошибка вторая: «я перешёл на российский сервис — значит, всё законно»
Переход на GigaChat или YandexGPT снимает риск по статье 12 (трансграничная передача), но не решает вопрос согласия субъекта и договора поручения обработки. Если клиент не знает, что его данные обрабатывает сторонний ИИ-сервис — это нарушение, даже если сервер находится в России.
Ошибка третья: «у нас корпоративная подписка — значит, данные защищены»
Корпоративная подписка даёт дополнительные гарантии (данные не используются для обучения, подписывается DPA), но не снимает все риски. Архитектурные уязвимости, описанные OWASP, присутствуют и в корпоративных версиях. Кроме того, нужно убедиться, что DPA соответствует требованиям российского законодательства — зарубежные шаблоны DPA написаны под GDPR, а не под 152-ФЗ.
Ошибка четвёртая: «я просто удалю чат — и данные исчезнут»
Удаление чата в интерфейсе пользователя и удаление данных с серверов провайдера — разные вещи. Samsung обеспокоила именно эта проблема: данные, загруженные на такие платформы, хранятся на внешних серверах, из-за чего их легко найти, но сложно удалить [7].
Ошибка пятая: «наш ИТ-отдел всё контролирует»
Теневой ИИ по определению обходит корпоративный контроль. Сотрудники могут использовать личные устройства, персональные аккаунты, мобильные приложения или даже фотографировать экран монитора смартфоном [21]. Технический контроль должен дополняться культурой безопасности и реальными корпоративными альтернативами.
Часть 7. Тренды и будущее регулирования
Регуляторное давление будет нарастать
Роскомнадзор с 1 июля 2025 года запустил автоматическую проверку сайтов на базе ИИ [25]. Это означает, что масштаб проверок будет расти, а выявление нарушений — ускоряться. В 2025 году регулирование, по оценке экспертов Хабра, «сползло в область инженерной рутины»: логирование, хранение данных, объяснимость, обучение сотрудников стали практическими требованиями, а не декларативными [26].
На международном уровне OWASP ежегодно обновляет перечень угроз для LLM, а EU AI Act уже вступает в силу поэтапно. Принцип экстерриториального действия регуляций (аналогичный GDPR) означает, что российские компании, работающие с европейскими данными, попадают под двойное регуляторное давление.
Безопасный ИИ станет стандартом, а не опцией
Эксперты Computerra прогнозируют: в ближайшие годы мы увидим становление безопасного ИИ как стандартной опции — аналогично тому, как когда-то антивирусы стали обязательным элементом корпоративной ИТ-инфраструктуры [22]. Компании, которые сегодня считают вложения в защиту ИИ-инструментов избыточными, через несколько лет будут вынуждены догонять.
Регуляторные требования сделают наличие политик и технических средств контроля использования ИИ обязательным условием прохождения проверок и получения лицензий для ряда отраслей.
Агентный ИИ создаёт новый класс рисков
Gartner прогнозирует, что через несколько лет треть корпоративных систем будет работать на автономных ИИ-агентах [27]. Когда ИИ перестаёт просто отвечать на вопросы и начинает самостоятельно отправлять письма, запрашивать данные из баз, вносить изменения в системы — риск утечки и несанкционированных действий возрастает многократно. OWASP специально выделил «Excessive Agency» как одну из критических угроз 2025 года.
Промпт-инъекции в агентном контексте особенно опасны: атакующий может спрятать инструкцию в документе, который ИИ-агент обрабатывает, и заставить агента выполнить произвольное действие с привилегиями обслуживаемого пользователя [5].
Заключение: что делать прямо сейчас
Риски, описанные в этой статье, реальны и уже материализуются в виде инцидентов, штрафов и репутационного ущерба. Но они не означают, что нужно запрещать ИИ. Нужно выстроить управляемую практику его использования.
Для сотрудников: применяйте тест «публичной доски» к каждому запросу, никогда не загружайте ПДн клиентов и учётные данные, анонимизируйте данные перед загрузкой, используйте только одобренные корпоративным IT-отделом сервисы.
Для компаний: разработайте и внедрите политику использования ИИ с конкретным перечнем разрешённых инструментов, организуйте обучение персонала с разбором реальных сценариев, обеспечьте реальную корпоративную альтернативу публичным сервисам, внедрите технический контроль (DLP, мониторинг), заключите DPA с провайдерами ИИ и проверьте его соответствие 152-ФЗ.
Для юристов и безопасников: подготовьте шаблон согласия субъекта на передачу данных ИИ-системе, обновите перечень конфиденциальной информации с учётом ИИ-рисков, проведите аудит текущего использования ИИ в компании, включая теневые инструменты.
О «Пятом факторе»: как знать, где хранятся ваши ПДн
Одна из ключевых проблем, описанных в этой статье, — компании не имеют актуальной картины того, где именно хранятся их персональные данные. Новые поля появляются в базах данных, новые интеграции возникают с подрядчиками, новые сервисы внедряются без участия ИБ. В этом хаосе организации не видят новых рисков вовремя.
«Пятый фактор» — это on-premise платформа для автоматического обнаружения, инвентаризации и контроля персональных данных в корпоративных системах: базах данных, хранилищах, почте, AD/LDAP, CRM, 1С, API. Ключевое отличие от аналогов — работа по принципу privacy-by-design: платформа оперирует метаданными, структурой и агрегатами, не передавая и не сохраняя «сырые» значения ПДн. Это означает, что сам инструмент контроля не становится источником нового риска.
В контексте угроз, описанных в этой статье, «Пятый фактор» решает конкретную задачу: если сотрудник подключает новый ИИ-сервис как интеграцию или создаёт новый поток данных, платформа обнаруживает изменение автуального ИТ-ландшафта, показывает, какие данные затронуты, кто их владелец, и позволяет оперативно оценить соответствие требованиям 152-ФЗ. Компании получают живую «карту ПДн» и видят новые риски раньше, чем они превращаются в инцидент.
Источники
[1] Chat2Desk — Безопасное использование ИИ. Январь 2026 — https://chat2desk.com/blog/stati/bezopasnoe-ispolzovanie-ii
[2] Kaspersky — Как настроить приватность и безопасность в ChatGPT. Октябрь 2025 — https://www.kaspersky.ru/blog/chatgpt-privacy-and-security/40631/
[3] Lasso Security — LLM Data Privacy: Protecting Enterprise Data in the World of AI. 2025 — https://www.lasso.security/blog/llm-data-privacy
[4] Northeastern University News — The five crucial ways LLMs can endanger your privacy. Ноябрь 2025 — https://news.northeastern.edu/2025/11/21/five-ways-llms-expose-your-personal-data/
[5] OWASP — Top 10 for LLM Applications 2025 — https://genai.owasp.org/llm-top-10/
[6] Cota Capital — Part 1: The Many Ways LLMs Leak Data. Октябрь 2025 — https://www.cotacapital.com/knowledge-base/part-1-the-many-ways-llms-leak-data-and-how-to-solve-it/
[7] RBC — Samsung запретила сотрудникам пользоваться ChatGPT. Май 2023 — https://www.rbc.ru/rbcfreenews/64509f359a79475fdcc3b61b
[8] iXBT — Вплоть до увольнения: Samsung запретила ChatGPT. Май 2023 — https://www.ixbt.com/news/2023/05/02/vplot-do-uvolnenija-samsung-zapretila-sotrudnikam-ispolzovat-chatgpt-i-analogi-na-rabochih-pk-i-smartfonah-posle.html
[9] Sombrainc — LLM Security Risks in 2026: Prompt Injection, RAG, and Shadow AI. Январь 2026 — https://sombrainc.com/blog/llm-security-risks-2026
[10] NSFOCUS — The Invisible Battlefield Behind LLM Security Crisis. Март 2025 — https://nsfocusglobal.com/the-invisible-battlefield-behind-llm-security-crisis/
[11] SecureGPT — ИИ и персональные данные: юридические риски для бизнеса — https://securegpt.ru/blog/ai-personal-data-legal-risks
[12] Action-Market — Трансграничная передача персональных данных: новые правила 2025 — https://action-market.ru/blog/biznes/transgranichnaya-peredacha-personalnyh-dannyh-novye-pravila-i-trebovaniya-dlya-biznesa-v-2025-godu/
[13] B-152.ru — Закон о персональных данных: что изменилось в 2025–2026 годах — https://b-152.ru/zakon-o-personalnyh-dannyh-2025
[14] Solar Security / Habr — ИИ-ассистенты как новый вектор риска. Декабрь 2025 — https://habr.com/ru/companies/solarsecurity/articles/978494/
[15] CISOclub — Shadow AI и фишинг: как неконтролируемый AI угрожает кибербезопасности. Февраль 2026 — https://cisoclub.ru/kazhdyj-vtoroj-ciso-schitaet-ii-istochnikom-novyh-kiberugroz/
[16] ScrumTrek — GenAI Divide: Итоги внедрения ИИ в бизнесе 2025 (MIT NANDA). Сентябрь 2025 — https://scrumtrek.ru/blog/ai/16097/ai-in-business-2025/
[17] Appercase — Теневой ИИ на подъёме: как превратить его в стратегическое преимущество — https://www.appercase.ru/news/91127/
[18] Incomand / ЕМДЕВ — Shadow AI: Угрозы ИБ при использовании публичных ИИ инструментов — https://incomand.ru/en/blog/-/blogs/shadow-ai
[19] eSecurity Planet — 77% of Employees Leak Data via ChatGPT, Report Finds (LayerX Security). Октябрь 2025 — https://www.esecurityplanet.com/news/shadow-ai-chatgpt-dlp/
[20] Ведомости.Технологии — Как российский бизнес работает с ИИ-агентами. Ноябрь 2025 — https://www.vedomosti.ru/technologies/trendsrub/articles/2025/11/24/1156703-rabotaet-ii-agentami
[21] Kaspersky Blog — Как бизнесу реагировать на применение личных ИИ сотрудниками. Сентябрь 2025 — https://www.kaspersky.ru/blog/shadow-ai-3-policies/40409/
[22] Computerra — Теневой ИИ: почему запреты не работают. 2025 — https://www.computerra.ru/338376/tenevoj-ii-pochemu-zaprety-ne-rabotayut-i-kak-biznes-vynuzhden-podstraivatsya-pod-sotrudnikov/
[23] iXBT Live — Гайд по цифровой паранойе: правила работы с AI. Июль 2025 — https://www.ixbt.com/live/sw/gayd-po-cifrovoy-paranoye-pochemu-ya-zapretila-chatgpt-ispolzovat-moi-dannye-i-kakih-pravil-priderzhivayus-pri-rabote-s-ai.html
[24] CNews — Обзор: ИИ-ассистенты для бизнеса 2026. Январь 2026 — https://www.cnews.ru/reviews/ii-assistenty_dlya_biznesa_2025/cases/kak_sozdat_korporativnogo_ii-eksperta
[25] Klerk.ru — Обработка персональных данных: новые требования с 01.07.2025 и 01.09.2025 — https://www.klerk.ru/blogs/fedresurs/658225/
[26] Habr — Итоги 2025 в AI: прорывы, которые сдвинули индустрию. Декабрь 2025 — https://habr.com/ru/articles/979852/
[27] Sostav.ru — Главные тренды ноября 2025: гибкий найм и цифровые ассистенты в HR — https://www.sostav.ru/blogs/282131/71383