Общественность беспокоится о том, что генерация голосов и видео с помощью искусственного интеллекта дает возможность мошенникам размахнуться с небывалым масштабом в своем злонамеренном творчестве. И это не пустая тревога. Уже имели место случаи со схемами выманивания денег через подделку голосовых сообщений. О том, почему дипфейк-мошенничество растет в геометрической прогрессии, «ФедералПресс» рассказал Артем Геллер, управляющий партнер «Смена» (Группа AIC).
«Впрочем, такого развития событий стоило ожидать. Анализ компании iProov, специализирующейся на биометрической аутентификации, показал драматический рост атак с использованием дипфейков. Согласно исследованию, во второй половине прошлого года было зарегистрировано на 704 % больше подобных преступлений, чем в первой половине 2023-го. В целом число попыток дипфейк-мошенничества увеличилось на 3000 % (!) по сравнению с 2022 годом.
Уже в середине прошлого года инструменты для цифрового дублирования голоса были настолько совершенны, что могли с точностью 95 % воспроизвести звучание речи оригинала. С тех пор технологии только продвинулись вперед.
В то же время широкая общественность пока недостаточно хорошо осознает риски, связанные с дипфейками. Огромное количество людей легко размещают записи своего голоса в сети, не придавая этому особого значения. По оценке компании – разработчика антивирусного ПО McAfee, 53 % взрослых пользователей не реже раза в неделю делятся своими голосами через публикации в соцсетях, голосовые сообщения и т. д. Разумеется, такая активность дает неплохой материал злоумышленникам, вооружившимся инструментами ИИ для генерации звука.
Февраль 2024 года уже можно назвать месяцем, громким на дипфейк-скандалы. Чего стоит невероятная афера с использованием искусственного интеллекта, оставившая отдел крупной фирмы в Гонконге без 25 млн долларов. Как преступникам удалось украсть эту астрономическую сумму? Идея обмана была проста: сымитировать рабочий процесс и заставить сотрудника перевести деньги под видом задачи от начальства.
Первым делом злоумышленники направили специалисту финансового отдела e-mail от «директора», который тот проигнорировал, сочтя подозрительным. Но мошенники не остановились и разыграли целый рабочий созвон, в ходе которого все же убедили несчастного перевести деньги на указанные счета. Представьте, насколько правдоподобной была фейковая видеоконференция, раз осторожный профессионал клюнул на уловку.
Если дипфейк способен одурачить хорошо осведомленного о схемах мошенничества человека, не понаслышке знакомого с технологиями, то для более доверчивых и менее грамотных в цифровом плане пенсионеров риски еще выше. Конечно, настолько грандиозный спектакль для обмана простых граждан устраивать не будут, но вполне возможно, что подделанного на скорую руку видеозвонка будет достаточно для исполнения мошеннического замысла.
В этом году мошенники опробовали свои силы, сгенерировав голос главы города Березовского Евгения Писцова. Дублированный голос Писцова использовали, чтобы звонить горожанам и членам местной администрации. Мошенники настолько разошлись, что мэру пришлось в официальных аккаунтах предупреждать о дипфейке с целью уберечь горожан от трат.
Пока что многие дипфейк-атаки в России рассчитаны именно на пользовательскую наивность. Для молодых людей определить подделку обычно намного легче. Действительно, слегка роботизированный голос, странноватые ломаные движения и негибкая мимика – все это превращает сгенерированные запись речи или видео, где твой «брат» или «сестра» просит срочно занять денег, в нелепый розыгрыш.
Однако, учитывая взлет технологий, ситуация может достаточно скоро измениться. Еще пару лет назад мы все смеялись над тем, как нейросети вечно мучаются с отрисовкой рук и порождают забавных чудовищ. Сегодня ИИ-инструменты сильно усовершенствовались. Серьезные генеративные нейросети могут добиться настолько реалистичной картинки, что распознать в ней фейк становится очень сложно. И главное, они легко доступны обывателям. Еще немного, и так же дилетантски можно будет создать видео-дипфейк, действительно не отличимый от настоящей съемки.
И число дипфейков растет не только в преступном мире. Это явно видно по событиям на одной из самых популярных сцен для регулярных представлений, демонстрирующих новые возможности генеративных технологий. Речь идет, разумеется, о сцене звездных дипфейков. Использовать ИИ для создания пикантных (в лучшем случае) картинок и видео стали очень давно, но теперь сомнительный контент со знаменитостями выглядит правдоподобнее.
К примеру, мировые СМИ до сих пор обсуждают дипфейки с Тейлор Свифт. Фальшивый взрослый контент с поп-иконой широко распространился в интернете в начале 2024-го и возмутил огромное количество людей. Кажется, о нем говорят даже больше, чем о звонках от «Джо Байдена», в которых сгенерированный голос президента США увещевал потенциальных избирателей придержать свой голос до более удачного момента.
Политические дипфейки продолжают быть одними из самых опасных в сети. Одновременно с этим их число растет. К примеру, фейковые видео с премьером Японии Фумио Кисидой набирают сотни тысяч и даже миллионы просмотров. Особенно популярен ролик, на котором политик якобы заявляет, что 90 % японцев – нелегальные беженцы и мигранты. Заметное увеличение числа фейков стоит ожидать и в нашей стране в преддверии мартовских выборов.
Однако в России не планируют сидеть без дела и смотреть, как дипфейки заполоняют онлайн-пространство. Министерство цифрового развития совместно с Роскомнадзором намерены проработать законодательство в отношении подобного контента, сгенерированного ИИ. Естественно, тормозить развитие искусственного интеллекта и лишать пользователей невинных развлечений никто не будет, но вопрос дублирования того же голоса человека без его согласия возьмут под контроль. При этом важно не забывать, что использовать изображение человека, когда он ничего об этом не знает, уже незаконно. Кроме того, участвуют в обмане нейросети или нет, мошенничество с дипфейками остается мошенничеством и так же попадает под санкции».
Изображение сгенерировано нейросетью Kandinsky 2.2