Top.Mail.Ru
Общество
Москва
0

Что о вас знают нейросети и почему это опасно: рассказывает ИТ-эксперт Илья Костунов

ИИ
Почему переписка с нейросетью может не исчезнуть бесследно — и что нужно знать о рисках при работе с ИИ

ИИ-сервисы становятся привычным инструментом в работе, учебе и повседневной жизни. Но знаете ли вы, куда попадают ваши запросы после отправки? И чем это может обернуться? Читайте мнение ИТ-эксперта Ильи Костунова о том, как нейросети «запоминают» ваши данные, почему это может быть опасно и как обезопасить себя в мире умных алгоритмов.

«Искусственный интеллект быстро вошел в повседневную жизнь – его используют для работы с текстами, анализа данных, планирования и даже медицинских консультаций. Такие сервисы привлекательны своим удобством: достаточно ввести запрос и уже через секунду получаешь готовый результат. Но за простотой скрывается механизм, не всегда прозрачный для пользователя. Все, что вы отправляете нейросети, не исчезает бесследно – и именно здесь начинаются риски.

Каждый раз, когда пользователь отправляет запрос в ChatGPT, DeepSeek или другой нейросервис, данные проходят через сервер разработчика. Даже если ответ приходит мгновенно, информация может сохраняться, анализироваться и использоваться для дообучения моделей. Это значит, что, казалось бы, безобидная переписка может оказаться в обучающем наборе и всплыть в ответе другому человеку. Особенно это касается бесплатных и частично платных версий, где такая практика заложена в архитектуру сервиса по умолчанию.

Утечки – уже не гипотеза, а подтвержденные факты. Например, сотрудники Samsung в 2023 году загрузили в ChatGPT исходный код, после чего компании пришлось полностью запретить его использование. В том же году на теневых площадках появились десятки тысяч логов с украденными чатами пользователей, их получили через вирусы, такие как Raccoon Infostealer. А в обучающем массиве Common Crawl, использовавшемся при обучении нейросетей, нашли действующие пароли и ключи API – их случайно оставили разработчики в открытых документах. Все эти данные стали частью модели, и извлечь их теперь невозможно.

Почему все это происходит? Во-первых, многие пользователи просто не осознают, как работают ИИ-сервисы. Они воспринимают их как аналог поисковика, забывая, что это не просто система выдачи информации, а обучающаяся модель, впитывающая все, что ей отправляют. Во-вторых, сами разработчики заинтересованы в расширении обучающей базы: чем больше данных – тем точнее ответы, тем выше конкурентоспособность. И если не отключены соответствующие настройки, пользовательские запросы вполне могут становиться частью этой базы. В-третьих, ни одна система не защищена на сто процентов: происходят и технические сбои, и взломы, и банальные ошибки доступа. А иногда всему виной – простая человеческая небрежность. К сожалению, полной защиты от подобных сценариев нет. Обезличивание, отключение дообучения, корпоративные версии нейросетей – все это лишь частично снижает риски.

При работе с нейросетями важно помнить, что любые данные, которые вы вводите, могут быть сохранены и переработаны, даже если сервис заявляет об анонимности. Поэтому безопаснее всего использовать ИИ только для задач, не связанных с личной или корпоративной информацией. Не стоит загружать документы с реальными именами, адресами, номерами телефонов, логинами, медицинскими выписками или служебной перепиской – даже если кажется, что вы всего лишь проверяете формулировку или сравниваете стили. Если нужно получить помощь с чувствительными текстами, их следует заранее обезличить, убрав все, что может прямо или косвенно указать на конкретного человека или организацию. И чем больше вы сомневаетесь, можно ли что-то отправлять в ИИ, тем вероятнее, что делать этого не стоит вовсе.

Также важно понимать, что иностранные модели, особенно обученные на англоязычном сегменте сети, не всегда точны, не всегда актуальны и могут повторять ошибки, заложенные в их обучающих данных. А иногда – и чужую частную информацию. Поэтому критическое мышление при работе с ИИ становится необходимым навыком. Помните, что ИИ – это помощник, а не арбитр. И обращаться с ним нужно так же осторожно, как с любым другим сервисом, которому вы доверяете свои данные»

Подписывайтесь на ФедералПресс в Дзен.Новости, а также следите за самыми интересными новостями в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Добавьте ФедералПресс в мои источники, чтобы быть в курсе новостей дня.