МОСКВА, 27 марта, ФедералПресс. Нейросети имеют все шансы стать постоянными спутниками человека как в повседневной жизни, так и в профессиональной. Тем не менее скорость их распространения порождает определенные проблемы, в числе которых безопасность персональных данных пользователей и достоверность информации. Эксперт комиссии по развитию информационного общества СФ, главный разработчик сайта Kremlin.ru, генеральный директор студии «lab.AG» Артем Геллер в интервью «ФедералПресс» рассказал о доверии к нейросетям, фейках, которые они могут генерировать, и утечках персональных данных при использовании нейросетей.
Одним из главных примеров сегодня стал ChatGPT – чат-бот, наиболее популярный во всем мире. И именно эта нейросеть породила несколько прецедентов, заставивших пользователей усомниться в совершенстве технологии.
Так, под угрозой оказались персональные данные пользователей чат-бота. Из-за сбоя некоторые могли видеть имена, фамилии, электронные адреса и некоторые банковские данные других людей. Разработчики чат-бота сообщили, что проблема утечки данных затронула около 1,2 % подписчиков ChatGPT.
«Вопрос безопасности стоит во всем ИТ-секторе. Мы часто сталкиваемся с утечками, и здесь не играет роль, сколько компания на рынке, безопасный или нет у нее образ. Эти утечки были абсолютно у всех ИТ-гигантов. Поэтому от них никто не защищен», – отметил Геллер.
Еще одной проблемой ChatGPT стала генерация фейков. Специалисты «NewsGuard» выяснили, что версия ChatGPT с индексом 4 оказалась более склонной к генерации фейков, по сравнению с предшественником версии 3.5. В январе 2023 года исследователи поручили нейросети ответить на серию вопросов, касающихся 100 ложных сообщений, хранящихся в базе данных фейков «NewsGuard». По итогу версия 3.5 сгенерировала 80 и 100 ложных сообщений, а версия 4 во всех 100 случаях.
«В рутинных вопросах мы склонны доверять нейросетям. Однако если у вас важный запрос, от которого что-то зависит – не стоит доверять чат-ботам. Ответы нейросетей складываются из существующих баз данных, которые составляли люди, и не факт, что хранящиеся в этих базах данные верны или не искажены злонамеренно», – подчеркнул IT-специалист.
Артем Геллер также отметил, что важной составляющей при использовании нейросетей является фактчекинг. При любом более-менее важном запросе стоит перепроверять информацию и не считать нейросети истиной последней инстанции.
Фото: ФедералПресс / Ольга Юшкова