Использование нейросетей, таких как ChatGPT, становится все более распространенным. Они могут помочь написать деловое письмо, найти ошибку в коде, придумать рассказ и написать дипломную работу. Однако все большее число исследований показывает, что умные помощники способны незаметно менять мышление пользователя.
Один из подтверждающих это экспериментов заключался в следующем: испытуемых попросили написать эссе с использованием ИИ. В ходе опыта выяснилось, что в зависимости от предвзятости алгоритма чат-бот мог подтолкнуть участников написать текст либо за, либо против определенной точки зрения. Ученые отметили, что мнение испытуемых по предложенной теме эссе заметно изменилось по итогам исследования. Как предупредил профессор факультета информатики Корнеллского университета Мор Нааман, «вы можете даже не подозревать, что на вас оказывают влияние».
Подобные исследования открывают тревожную перспективу: искусственный интеллект может изменять мнение человека незаметным и непредвиденным образом. Исследователи, которые раскрыли этот феномен, считают, что сейчас лучшая защита от этой новой формы психологического воздействия заключается в том, чтобы как можно больше людей узнали о ее существовании. Также ученые считают, что в долгосрочной перспективе пользу может принести активность регулирующих органов, которые обяжут сделать прозрачной работу алгоритмов искусственного интеллекта.
При рассмотрении вопроса предвзятости точки зрения ИИ необходимо понимать, что эти модели обучаются на данных, которые могут быть взяты откуда угодно, включая обрывки из обширных ресурсов интернета. По этой причине они неизбежно отражают мнения и предубеждения, содержащиеся в этих текстах, будь то сообщения на публичных форумах или содержание статей «Википедии».
Эта особенность моделей машинного обучения выводит важность борьбы с фейковой информацией на новый уровень: в худшем случае нейросеть может использовать ее как основу для обучения, в дальнейшем генерируя заведомо ложные тексты.
Не секрет, что сегодня в ходе полномасштабной антироссийской информационной кампании иностранные площадки не только допускают распространение фейков на своих платформах, но и не удаляют их даже по запросу российского регулятора. Это не может не вызывать серьезные опасения в том, насколько достоверной будет информация, которую условные ChatGPT или Bard от компании Google предложат пользователю.
Для государства препятствование распространению дезинформации в обществе является одним из приоритетов. Так, еще в апреле прошлого года президент России Владимир Путин призвал прокуратуру пресекать вмешательства в дела РФ извне и препятствовать распространению фейков в сети.
Напомним, что борьба с дезинформаций в России ведется на высшем уровне уже несколько лет. Соответствующие поправки в закон «Об информации, информационных технологиях и о защите информации» были внесены в марте 2019 года. Тогда же было дано определение понятию «фейковые новости» – это заведомо недостоверная общественно значимая информация, распространяемая под видом достоверных сообщений, и создавшая определенную угрозу жизни или здоровью граждан, имуществу, общественному порядку и общественной безопасности.
Законодательство в сфере борьбы с фейками постоянно дополнялось и совершенствовалось, отвечая вызовам времени. К примеру, возросшее число ложных сообщений в период пандемии COVID-19 привело к дополнению КоАП РФ новыми положениями. В отдельный состав правонарушения выделили распространение в СМИ и интернете информации об обстоятельствах, представляющих угрозу жизни и безопасности граждан, или о принимаемых мерах по обеспечению безопасности населения и территорий, приемах и способах защиты от указанных обстоятельств. Помимо этого, после начала специальной военной операции на Украине в РФ была введена ответственность за распространение ложной информации о действиях российской армии и госорганах за рубежом.
Фото: © Elena Sikorskaya/ Global Look Press/ globallookpress.com