
Типичная ситуация: маркетолог копирует часть клиентского отчёта в нейросеть, чтобы улучшить формулировки. В документе — имена клиентов, суммы сделок и внутренние метрики. Всё, что пользователь вставил в окно чата, отправляется на сервер разработчика и может использоваться для анализа или диагностики модели. Так внутренняя информация оказывается в чужом облаке, вне контроля компании.
Подобные случаи уже фиксировались у десятков крупных корпораций.
Один из самых известных — Samsung: инженеры загрузили во внутренний чат с нейросетью фрагменты исходного кода, чтобы найти ошибку. Позже выяснилось, что часть этого кода могла попасть в общую обучающую выборку, а значит — сохраниться на серверах и потенциально быть восстановленной. Для технологической компании это серьёзный риск: даже небольшой кусок исходников может раскрыть логику продукта или внутренние алгоритмы. После этого Samsung полностью запретила использование публичных AI-сервисов в работе.
Большие языковые модели (LLM — large language models) — это системы, которые анализируют текст и формируют ответ на основе миллиардов примеров, изученных во время обучения. Чтобы ответить пользователю, модель передаёт его запрос на сервер, где он обрабатывается и сохраняется. Именно в этот момент корпоративные данные покидают защищённый периметр компании.
Разработчики LLM часто заявляют, что не используют пользовательские данные для обучения моделей. Но на практике любая публичная версия ИИ хранит часть запросов и ответов для диагностики и улучшения качества работы. Эти данные попадают в технические журналы — по сути, во внутренние копии обращений. В публичных облачных сервисах такие журналы могут храниться у провайдера для телеметрии — удалённого сбора данных и анализа работы модели. Режимы хранения и удаления зависят от политики конкретного поставщика.
Проблему усугубляет и так называемый теневой ИИ — когда сотрудники используют публичные нейросети для рабочих задач без ведома службы безопасности. В этом случае компания теряет контроль над тем, какие именно данные уходят в сеть. Так корпоративные тайны, персональные данные и внутренние документы оказываются за пределами компании — без возможности удалить их или отследить путь.
Около 4,44 млн долларов — средняя стоимость одной утечки данных в 2025 году
По данным IBM, уровень ущерба остаётся одним из самых высоких за всю историю наблюдений. Для сравнения: столько стоит годовая зарплата примерно пятидесяти высококвалифицированных инженеров или маркетинговый бюджет крупного регионального банка. Ниже — реальные кейсы, показывающие, что риски касаются даже технологических гигантов.
38 ТБ данных — Microsoft — 2023 год
Ошибка конфигурации в облачном хранилище, используемом при работе над AI-проектами, открыла доступ к резервным копиям сотрудников GitHub.
Последствия: в сеть попали ключи и пароли, потребовалась масштабная проверка инфраструктуры.
Реакция: компания изменила политику доступа и усилила контроль над хранилищами Azure.
Фрагменты исходного кода — Samsung — 2023 год
Инженеры загрузили служебный код в нейросеть для поиска ошибок. Файлы могли попасть в общие обучающие наборы.
Последствия: риск утечки внутренних алгоритмов, потенциальный ущерб — миллионы долларов.
Реакция: полный запрет использования публичных AI-сервисов сотрудниками, внедрение внутреннего корпоративного ассистента.
История запросов пользователей — OpenAI — 2023 год
Сбой в инфраструктуре ChatGPT сделал видимой часть заголовков чатов и платёжных данных примерно 1,2% подписчиков ChatGPT Plus.
Последствия: временная приостановка сервиса, рост внимания регуляторов к политике хранения данных.
Реакция: пересмотр архитектуры сессий и изоляции данных по пользователям.
Клиентские данные — Toyota Motor — 2023 год
В течение десяти лет часть пользовательских данных оставалась доступной из-за неправильно настроенного облачного контейнера.
Последствия: раскрытие информации более чем о 2 млн клиентов.
Реакция: обновление систем хранения, усиление контроля доступа и аудита облаков.
Чтобы советы не выглядели теорией, важно уточнить: рекомендации ниже основаны на признанных международных стандартах — NIST AI Risk Management Framework (США), ISO/IEC 27001 и 27701 (информационная и персональная безопасность), а также на корпоративных практиках Microsoft, Google, IBM, Apple и JPMorgan Chase. Эти документы и кейсы используются в индустрии как эталон построения безопасных систем искусственного интеллекта.
Любая защита начинается не с технологий, а с управления.
Ключевой принцип: Govern first, automate later (NIST AI RMF): сначала создаётся политика, потом внедряются инструменты.
Значительная доля утечек связана с человеческим фактором (по данным Verizon DBIR 2024 — более 68% инцидентов). Поэтому обучение — ключевой элемент любой защиты.
Что реально работает:
Когда люди понимают последствия, а не просто читают запреты, количество нарушений снижается в разы.
Эти меры отражают принципы Secure AI Framework (SAIF) от Google Cloud и практики корпоративных провайдеров.
Как подчёркивает McKinsey в отчёте Securing the Generative AI Enterprise (2024), политика безопасности без регулярного пересмотра быстро устаревает. Компании-лидеры проводят аудит использования AI на постоянной основе: проверяют, какие модели применяются, какие данные уходят наружу, и обновляют правила. Такой подход внедрён в IBM и Google Cloud — у них есть комитеты по AI-комплаенсу, которые собирают обратную связь от сотрудников и корректируют внутренние инструкции.
Все эти меры — не формальные рекомендации, а практика крупнейших корпораций и часть международных стандартов информационной безопасности. ИИ-технологии не делают бизнес уязвимым сами по себе. Уязвимость возникает, когда компания не управляет тем, как люди и системы работают с данными.
Большинство инцидентов с утечками происходят не из-за сложных хакерских схем, а потому что кто-то просто хотел сэкономить время и отправил в нейросеть служебный документ. Поэтому важно не только прописать правила, но и донести до сотрудников, где граница между безопасным и опасным использованием AI.
Даже если сервис кажется безопасным и приватным, всё, что вы вводите, уходит на сервер разработчика и может быть сохранено. Поэтому под строгим запретом:
Почему это опасно: нейросеть не запоминает ваши данные как человек, но запросы могут сохраняться в журналах (логах) для анализа и улучшения модели. Это значит, что к ним потенциально могут получить доступ разработчики, подрядчики или другие пользователи.
Если вы хотите использовать AI для ускорения рутинных задач, есть безопасный компромисс — обезличенные данные.
Это значит, что вы можете:
Такой подход используют Google и IBM, когда обучают внутренние модели: данные проходят через этап токенизации — имена, суммы и внутренние идентификаторы заменяются на нейтральные маркеры. Это можно реализовать даже без сложных инструментов: через промежуточный слой (например, в n8n или собственной панели), который автоматически маскирует конфиденциальные поля перед отправкой запроса.
Если компания активно работает с данными, лучше внедрить корпоративного AI-помощника — по сути, тот же чат, но с контролем доступа и внутренней базой данных.
Ключевые отличия от публичных сервисов:
Так устроен, например, Microsoft Copilot for Business и внутренние решения IBM WatsonX — они используют одну и ту же архитектуру: API-запрос идёт через корпоративный шлюз, где включена токенизация и шифрование, а в модель попадают только разрешённые параметры.
API — это технический мост между вашим продуктом и внешним AI-сервисом. Если его правильно настроить, можно безопасно использовать внешние модели без риска утечек.
Основные принципы:
Большинство корпоративных платформ позволяют внедрить такие правила без участия программистов — через визуальные интерфейсы и готовые коннекторы.
Безопасная работа с AI не требует запрета всего. Достаточно разделить данные на те, что можно использовать, и те, что нельзя, а обращения направлять через защищённый шлюз или API. Тогда команда сможет работать с нейросетями свободно, а компания сохранит контроль над тем, что действительно ценно — своими данными.
Крупные корпорации уже прошли тот этап, когда ИИ считался игрушкой или угрозой. Сегодня защита данных при работе с AI стала обязательным элементом корпоративного управления.
Общая тенденция одна — компании не отказываются от нейросетей, а встраивают их в свою инфраструктуру по тем же правилам, что и другие критичные системы.
Свяжем эти тенденции с конкретными шагами, которые можно реализовать без сложных технологий.
Те, кто научится управлять AI так же осознанно, как бюджетами и клиентскими базами, будут выигрывать не только в производительности, но и в доверии клиентов и партнёров. Безопасность — это не ограничение, а способ сделать использование ИИ предсказуемым и управляемым.
Если вам близок этот подход и вы хотите понимать, как выстраивать аналитику, управлять данными и делать маркетинг измеримым и безопасным, присоединяйтесь к Telegram-каналу CyberBrain.
Мы пишем для тех, кто отвечает за результат: маркетологов, аналитиков и руководителей, которые хотят контролировать эффективность рекламы, не теряя контроль над своими данными.
статья 10 min read
Как и зачем внедрять data-driven атрибуцию в бизнес: 5 основных шагов
Атрибуция на основе данных — мощное решение для контроля эффективности и оптимизации рекламы. Но как его интегрировать и можно ли это сделать самостоятельно? В этой статье мы вместе преодолеем пять основных препятствий на пути к внедрению атрибуции — и превратим их в пять конкретных шагов для реализации.
оптимизация 12 min read
Больше лидов — меньше CPA: первый и единственный гайд по оптимизации медийной рекламы от CyberBrain
Медийная реклама должна работать на продажи — и точка. В статье вас ждёт описание фреймворка, который служит именно этой цели.
проблемы и решения 3 min read
Анализ расхождений трекера и кабинетов
Системный подход к оптимизации медийной рекламы невозможен без чистых данных. Но что если данные трекера и рекламного кабинета не совпадают? Рассказываем, откуда берутся расхождения и что с этим делать.
памятка 16 min read
Ошибки при внедрении AI в маркетинге
Искусственный интеллект стал одной из самых обсуждаемых тем в маркетинге. Компании активно внедряют AI-решения для автоматизации аналитики, медиабаинга и персонализации, но только единицы получают реальную прибыль. Почему одни проекты приносят ROI, а другие заканчиваются пилотом? Какие ошибки чаще всего совершают бренды и агентства?
сравнение 14 min
Как атрибуция дополняет моделирование маркетингового микса
Атрибуция и маркетинговый микс: как совместить анализ пути клиента и моделирование каналов, чтобы правильно распределять бюджеты и повышать продажи.
статья 9 min
Как перестроить атрибуцию под новые правила конфиденциальности
Серверный сбор событий, согласия, локальное хранение данных и показатели качества — практическое руководство по соответствию атрибуции требованиям 152-ФЗ.