Не болтай! Правила осторожности при общении с нейросетями

ИИ, как и другие технологии, работающие с большими данными, помимо колоссальных положительных качеств, несет и определенные риски. В первую очередь они связаны с безопасностью информации. Вместе с ХАЙТЕК разберёмся, на что обращать внимание при общении с нейросетями и как не допустить утечку.
Конфиденциальная информация — это сведения, разглашение которых может нанести ущерб физическим и юридическим лицам. К ним относятся:
- персональные (паспортные, СНИЛС, медицинские, данные о доходах), а также номер телефона, адрес email и другие контакты);
- корпоративные (операционные процессы, внутренняя аналитика, данные о клиентах и сотрудниках, юридические риски);
- коммерческие тайны (стратегические активы, технологические секреты, рыночные инсайты, финансовые и другие отчетности);
- классифицированные (государственные и военные).
Мы сегодня поговорим о персональных данных. В современном мире большинство пользователей понимают, почему важно не разглашать личную информацию и к чему могут привести утечки. Учитывая это, возникает закономерный вопрос: каким образом конфиденциальные данные оказываются во власти искусственного интеллекта?
Как личная информация попадает к нейросетям
Речь в первую очередь идет об открытых ИИ-моделях — таких, как ChatGPT (Open AI), Claude (Anthropic), DeepSeek и Midjourney одноименных компаний, Gemini (Google), Copilot (Microsoft) и других.
Они развиваются за счет машинного обучения — обработки огромных массивов информации, включая публичные источники: разные веб-сайты, соцсети, статьи и документы, изображения и видео из открытых платформ. Помимо бесплатных источников, разработчики приобретают и лицензионные датасеты. Специализированные модели тренируются в рамках узких направлений (медицинских, юридических). Персональная информация может по ошибке затесаться, даже если данные обезличены: анализируя совокупность параметров, ИИ может восстановить личность человека или коммерческий контекст.
Другая ситуация — когда пользователи сознательно вносят собственные данные, взаимодействуя с открытыми ИИ-сервисами:
- загружают документы для анализа информации, резюме или проверки грамотности;
- ставят задачу написать подробный отчет из конкретных финансовых показателей;
- сообщают голосовым помощникам (например, «Алисе» от «Яндекса» или «Марусе» от Mail.ru) свое имя, телефон, адрес для вызова такси;
- передают номера платежных карт цифровым финансовым помощникам разных банков;
- вносят личные сведения, например, в медицинских чат-ботах для врачей;
- пропускают всевозможные данные через переводческие сервисы;
- дают нейросетям доступ к персональной и корпоративной почте, если подключают соответствующие услуги.
Популярные облачные сервисы, такие, как «Яндекс Диск», «Google Диск» и OneDrive, тоже используют алгоритмы ИИ. В числе прочего они применяют технологии оптического распознавания образов и текста (OCR), чтобы находить документы, фотографии и другие файлы по содержимому. При этом в них хранятся тонны частной и корпоративной информации, и таким образом они имеют к ней прямой доступ.
Делиться можно, но осторожно
Делиться данными с искусственным интеллектом далеко не всегда означает ставить под угрозу их безопасность. Отказываться от нейросетей не стоит, ведь они умеют обрабатывать неподъемные массивы данных, автоматизировать десятки разносторонних процессов и сводить к минимуму человеческие ошибки. А еще они постоянно учатся, чтобы совершенствовать свою пользу для людей.
Самые известные ИИ-сервисы предоставляются широкой аудитории бесплатно. Однако разработчики все же получают с них прибыль, только менее очевидными путями:
- использование данных для дообучения, упомянутое выше — с обезличиванием, и здесь информация несет ценность сама по себе;
- передача агрегированных данных третьим лицам для таргетирования рекламы (обычно так делают малоизвестные стартапы);
- подписка на премиум-услуги: базовый функционал доступен всем, но для более продвинутых функций оформляется платеж;
- лицензирование технологий: расширение API для интеграции нейросети в другие приложения;
- фандрайзинг, краудфандинг, финансирование от инвесторов и другие виды монетизации.
Важно помнить, что нейросети, обученные на открытых базах, не различают по умолчанию конфиденциальную и публичную информацию. Это задача только пользователей. При том, что крупные платформы вроде OpenAI или Claude обычно избегают практику передачи данных из-за репутационных рисков, безопасность сведений в первую очередь зависит от самих людей.
Как понять, безопасна ли нейросеть
Многие открытые ИИ-модели работают через облачные платформы — для масштабирования. Информация хранится на их серверах в центрах обработки данных (ЦОД). В этих случаях доступ к сведениям, которые пользователи отправляют нейросетям (запросы, файлы), получают не только разработчики, но и облачные провайдеры. Государственные органы или регуляторы по решению суда тоже могут войти в эту цепочку. Сами ЦОДы могут располагаться в разных странах и таким образом подчиняться разным юрисдикциям.
Обычно сервисы и сайты на базе ИИ, которые собирают данные о посетителях, запрашивают у них разрешение на обработку данных. Иногда нужно проставить галочку в чекбокс, но в других случаях сервис может разместить предупреждение, что человек, пользуясь им, автоматически дает согласие на обработку информации.
Чтобы отличить добросовестный ИИ-сервис от потенциально небезопасного, нужно следовать нескольким правилам:
Изучить политику конфиденциальности — есть ли в ней пункт об использовании данных (в том числе для дообучения) и можно ли отменить эту опцию. Например, в ChatGPT можно отключить историю и запоминание чатов. В китайском DeepSeek и Copilot корпоративные подписки позволяют выключать сбор сведений. А в Gemini и некоторых других данные часто используются для улучшения модели.

Проверить, обезличивает ли ИИ-сервис данные. Относительно безопасно передавать информацию источникам, которые применяют этот метод защиты. Однако проверить, действительно ли это происходит и в какой форме, зачастую невозможно. С осторожностью стоит воспринимать малоизвестные аналоги популярных нейросетей, генераторы документов и резюме, программы для написания писем, открытые дашборды и сервисы для прогнозирования.
Выяснить, где расположены серверы и кому принадлежит нейросеть: США, ЕС, Китай? Уровни защиты могут различаться в зависимости от территорий. У небольших и недорогих облачных провайдеров обычно меньше ресурсов и внимания к соблюдению правил, и как следствие прозрачности. Такое бывает у отдельных поставщиков в некоторых странах Азии и Африки, где регуляторная среда менее жесткая, чем в других. О репутации поставщика может сказать наличие соответствующих международных сертификатов.
Проверить отзывы и инциденты — известны ли случаи утечек. Чаще всего они происходят по вине недобросовестных провайдеров или через незащищенные каналы. Однако даже проверенные ИИ-сервисы не застрахованы от целевых атак киберпреступников.

Основные риски для пользователей нейросетей
Фишинг, давно известный среди «обыкновенных» сервисов, касается и сферы ИИ. Мошенники создают поддельные инструменты, имитирующие популярные нейросети (условно, некий поддельный ChatGPT), пользуются возможностями генеративных ИИ для создания фейковых писем, изображений или даже видео. Их цель — заполучить персональную информацию пользователей для прямой кражи или шантажа, и в том числе в масштабах корпораций. Чтобы не попасться на «удочку», необходимо проверять доменные имена, email и телефоны адресантов — и внимательно относиться к веб-ссылкам и запросам проверочных кодов.
Недостоверность сведений — нежелательная, но возможная особенность самих нейросетей. При всей многогранности функционала искусственный интеллект, помимо «постороннего вторжения», иногда допускает естественные ошибки. Например, приводит несуществующую статистику или определяет неоднозначные сведения как достоверные.
В работе с ИИ всегда уместен принцип «доверяй, но проверяй»: ему можно задать прямой вопрос, откуда он взял данные, и точно ли он уверен в своей правоте. Проверенные модели готовы признать ошибку и выдать пояснение. Но полезнее всего — использовать экспертный человеческий надзор для проверки решений ИИ. Особенно важно следить за процессом, когда речь идет о подготовке важных отчетов, статей и документов.
По материалам ХАЙТЕК
Иллюстрации PxHere, Хайтек