Не болтай! Правила осторожности при общении с нейросетями

ИИ, как и другие технологии, работающие с большими данными, помимо колоссальных положительных качеств, несет и определенные риски. В первую очередь они связаны с безопасностью информации. Вместе с ХАЙТЕК разберёмся, на что обращать внимание при общении с нейросетями и как не допустить утечку.

Конфиденциальная информация — это сведения, разглашение которых может нанести ущерб физическим и юридическим лицам. К ним относятся:

  • персональные (паспортные, СНИЛС, медицинские, данные о доходах), а также номер телефона, адрес email и другие контакты);
  • корпоративные (операционные процессы, внутренняя аналитика, данные о клиентах и сотрудниках, юридические риски);
  • коммерческие тайны (стратегические активы, технологические секреты, рыночные инсайты, финансовые и другие отчетности);
  • классифицированные (государственные и военные).

Мы сегодня поговорим о персональных данных. В современном мире большинство пользователей понимают, почему важно не разглашать личную информацию и к чему могут привести утечки. Учитывая это, возникает закономерный вопрос: каким образом конфиденциальные данные оказываются во власти искусственного интеллекта?

Как личная информация попадает к нейросетям

Речь в первую очередь идет об открытых ИИ-моделях — таких, как ChatGPT (Open AI), Claude (Anthropic), DeepSeek и Midjourney одноименных компаний, Gemini (Google), Copilot (Microsoft) и других. 

Они развиваются за счет машинного обучения — обработки огромных массивов информации, включая публичные источники: разные веб-сайты, соцсети, статьи и документы, изображения и видео из открытых платформ. Помимо бесплатных источников,  разработчики приобретают и лицензионные датасеты. Специализированные модели тренируются в рамках узких направлений (медицинских, юридических). Персональная информация может по ошибке затесаться, даже если данные обезличены: анализируя совокупность параметров, ИИ может восстановить личность человека или коммерческий контекст.

Другая ситуация — когда пользователи сознательно вносят собственные данные, взаимодействуя с открытыми ИИ-сервисами:

  • загружают документы для анализа информации, резюме или проверки грамотности;
  • ставят задачу написать подробный отчет из конкретных финансовых показателей;
  • сообщают голосовым помощникам (например, «Алисе» от «Яндекса» или «Марусе» от Mail.ru) свое имя, телефон, адрес для вызова такси;
  • передают номера платежных карт цифровым финансовым помощникам разных банков; 
  • вносят личные сведения, например, в медицинских чат-ботах для врачей;
  • пропускают всевозможные данные через переводческие сервисы;
  • дают нейросетям доступ к персональной и корпоративной почте, если подключают соответствующие услуги.

Популярные облачные сервисы, такие, как «Яндекс Диск», «Google Диск» и OneDrive, тоже используют алгоритмы ИИ. В числе прочего они применяют технологии оптического распознавания образов и текста (OCR), чтобы находить документы, фотографии и другие файлы по содержимому. При этом в них хранятся тонны частной и корпоративной информации, и таким образом они имеют к ней прямой доступ.

Делиться можно, но осторожно

Делиться данными с искусственным интеллектом далеко не всегда означает ставить под угрозу их безопасность. Отказываться от нейросетей не стоит, ведь они умеют обрабатывать неподъемные массивы данных, автоматизировать десятки разносторонних процессов и сводить к минимуму человеческие ошибки. А еще они постоянно учатся, чтобы совершенствовать свою пользу для людей.

Самые известные ИИ-сервисы предоставляются широкой аудитории бесплатно. Однако разработчики все же получают с них прибыль, только менее очевидными путями: 

  • использование данных для дообучения, упомянутое выше — с обезличиванием, и здесь информация несет ценность сама по себе;
  • передача агрегированных данных третьим лицам для таргетирования рекламы (обычно так делают малоизвестные стартапы);
  • подписка на премиум-услуги: базовый функционал доступен всем, но для более продвинутых функций оформляется платеж;
  • лицензирование технологий: расширение API для интеграции нейросети в другие приложения;
  • фандрайзинг, краудфандинг, финансирование от инвесторов и другие виды монетизации.

Важно помнить, что нейросети, обученные на открытых базах, не различают по умолчанию конфиденциальную и публичную информацию. Это задача только пользователей. При том, что крупные платформы вроде OpenAI или Claude обычно избегают практику передачи данных из-за репутационных рисков, безопасность сведений в первую очередь зависит от самих людей.

Как понять, безопасна ли нейросеть

Многие открытые ИИ-модели работают через облачные платформы — для масштабирования. Информация хранится на их серверах в центрах обработки данных (ЦОД). В этих случаях доступ к сведениям, которые пользователи отправляют нейросетям (запросы, файлы), получают не только разработчики, но и облачные провайдеры. Государственные органы или регуляторы по решению суда тоже могут войти в эту цепочку. Сами ЦОДы могут располагаться в разных странах и таким образом подчиняться разным юрисдикциям.

Обычно сервисы и сайты на базе ИИ, которые собирают данные о посетителях, запрашивают у них разрешение на обработку данных. Иногда нужно проставить галочку в чекбокс, но в других случаях сервис может разместить предупреждение, что человек, пользуясь им, автоматически дает согласие на обработку информации.

Чтобы отличить добросовестный ИИ-сервис от потенциально небезопасного, нужно следовать нескольким правилам:

Изучить политику конфиденциальности — есть ли в ней пункт об использовании данных (в том числе для дообучения) и можно ли отменить эту опцию. Например, в ChatGPT можно отключить историю и запоминание чатов. В китайском DeepSeek и Copilot корпоративные подписки позволяют выключать сбор сведений. А в Gemini и некоторых других данные часто используются для улучшения модели.

Личный кабинет пользователя ChatGPT, разрешение на использование данных для дообучения.

Проверить, обезличивает ли ИИ-сервис данные. Относительно безопасно передавать информацию источникам, которые применяют этот метод защиты. Однако проверить, действительно ли это происходит и в какой форме, зачастую невозможно. С осторожностью стоит воспринимать малоизвестные аналоги популярных нейросетей, генераторы документов и резюме, программы для написания писем, открытые дашборды и сервисы для прогнозирования. 

Выяснить, где расположены серверы и кому принадлежит нейросеть: США, ЕС, Китай? Уровни защиты могут различаться в зависимости от территорий. У небольших и недорогих облачных провайдеров обычно меньше ресурсов и внимания к соблюдению правил, и как следствие прозрачности. Такое бывает у отдельных поставщиков в некоторых странах Азии и Африки, где регуляторная среда менее жесткая, чем в других. О репутации поставщика может сказать наличие соответствующих международных сертификатов.

Проверить отзывы и инциденты — известны ли случаи утечек. Чаще всего они происходят по вине недобросовестных провайдеров или через незащищенные каналы. Однако даже проверенные ИИ-сервисы не застрахованы от целевых атак киберпреступников.

Основные риски для пользователей нейросетей

Фишинг, давно известный среди «обыкновенных» сервисов, касается и сферы ИИ. Мошенники создают поддельные инструменты, имитирующие популярные нейросети (условно, некий поддельный ChatGPT), пользуются возможностями генеративных ИИ для создания фейковых писем, изображений или даже видео. Их цель — заполучить персональную информацию пользователей для прямой кражи или шантажа, и в том числе в масштабах корпораций. Чтобы не попасться на «удочку», необходимо проверять доменные имена, email и телефоны адресантов — и внимательно относиться к веб-ссылкам и запросам проверочных кодов.

Недостоверность сведений — нежелательная, но возможная особенность самих нейросетей. При всей многогранности функционала искусственный интеллект, помимо «постороннего вторжения», иногда допускает естественные ошибки. Например, приводит несуществующую статистику или определяет неоднозначные сведения как достоверные.

В работе с ИИ всегда уместен принцип «доверяй, но проверяй»: ему можно задать прямой вопрос, откуда он взял данные, и точно ли он уверен в своей правоте. Проверенные модели готовы признать ошибку и выдать пояснение. Но полезнее всего — использовать экспертный человеческий надзор для проверки решений ИИ. Особенно важно следить за процессом, когда речь идет о подготовке важных отчетов, статей и документов.

По материалам ХАЙТЕК

Иллюстрации PxHere, Хайтек