Редакция «ФедералПресс» / Герман Парло
Москва
20 ФЕВРАЛЯ, 2023
Чат-боты искусственного интеллекта, такие как ChatGPT, все более плотно входят в нашу жизнь. Заместитель директора Института стратегических исследований и прогнозов РУДН Виктория Федосова полагает, что подобные системы могут приносить как пользу, так и вред, а чат-боты могут быть использованы злоумышленниками в своих целях:
«Обучаемость голосовых помощников, чата на основе ИИ – это, как и любое новшество, и вызов, и возможность. Для людей с ограниченными возможностями такой голосовой помощник – это способ больше узнать о мире, он выводит поиск необходимой информации на новый уровень. Неслучайно технологией сразу заинтересовались крупнейшие поисковые системы.
Тем не менее человек и машина – двусторонний процесс. Даже на этапе обучения ИИ в него от человека попадают фактологические ошибки, есть сбои при обработке информации, запроса, ответа, ИИ усваивает формы ответов. Вряд ли кто-то всерьез будет относиться к хамству чат-бота, но если он с помощью случайно сгенерированных смыслов, выключающих имманентную ошибку, начнет влиять на мнение большого числа людей, это вызывает опасения. Даже один человек, настроив такой бот и дав соответствующую задачу, может создать десятки тысяч фейковых сообщений. Это ускоренная и усовершенствованная бот-ферма, настроив которую можно будет забросать нужный ресурс ложной информацией и сформировать определенное восприятие по проблеме.
И если сейчас в чат-бот не поместили события после 2021 года, то это не значит, что пользователи не привнесут туда свежие данные через свои запросы. А мы понимаем, в какой среде эти запросы от людей формируются. Вслед за этим данные и оценки отдельных людей уже в форме ответов бота пойдут в поисковые платформы, и начнется обратное влияние. Проблема и в том, что в полученных текстах нет характерных артефактов, по которым можно было бы сказать, что текст написал не человек.
Это идеальный «усредненный гражданин», избегающий жестких оценок, и чем больше с ним будут «общаться», тем более стандартизированными станут сами люди. И это не процесс десятилетий, на базе клипового мышления все это может развернуться за одну пятилетку. Использовать такие технологии можно и нужно, но представить «хирурга», который «обучился» с помощью ИИ и оперирует пациента на основе инструкций от ИИ в чате, но с помощью своих рук, я не могу.
Хотя дивный новый мир уже здесь, и дальше искусственный интеллект попробуют встроить в человека, наладить передачу команд силой мысли, то есть простой передачей нейронных импульсов, что уже пробуют на обезьянах, и это призвано «расширить» границы человеческого мозга. Только в таком случае этому человеку его мозг уже не будет принадлежать в полной мере, и в этом, конечно, есть не только банальная опасность манипуляции и создания настоящей «Матрицы». Это большой вопрос научной этики, который в ближайшие годы, не сомневаюсь, встанет в полный рост».
Фото: ФедералПресс / Антон Пигарев