Сегодня атаки мошенников стали более изощренными, масштабными и точными. Появился новый вид нарушителя – тот, что в своем арсенале применяет искусственный интеллект. Спектр обмана обширен: от манипуляций с голосом до создания фальшивых профилей в соцсетях. «ФедералПресс» выяснил у экспертов в области ИИ, какие схемы популярны у злоумышленников, как защитить себя и не стать их жертвой, а также какое будущее ждет киберпреступников.
На сегодняшний день использование ИИ злоумышленниками – это шлифовка старых механизмов реализации угроз, отметил в беседе с «ФедералПресс» заместитель гендиректора по науке и развитию компании ИВК Валерий Андреев. По его словам, искусственный интеллект натаскивают на уже отработанных приемах.
«Никаких качественно новых, прорывных методов атак мы не наблюдаем. Но не за горами то время, когда ИИ предложит свои, совершенно новые методы и алгоритмы. Поэтому крайне важно, чтобы средства, работающие на предотвращение атак, могли предсказывать их. Иначе последствия могут иметь катастрофическими», – полагает он.
Как мошенники используют ИИ и как от этого защититься
Волна создания ложных аккаунтов не только знакомых, но и первых лиц власти захлестнула общество. Чаще в работе злоумышленников применяется схема о звонке некого сотрудника ФСБ, у которого есть вопросы к собеседнику. К примеру, так подделывали аккаунт главы Перми Эдуарда Соснина, в Оренбургской области пострадали мэр Сергей Салмин и спикер заксобрания Сергей Грачев, а в Татарстане – вице-премьер Олег Коробченко и глава минсельхоза Марат Зяббаров.
Также людям писали лжегубернаторы Пензенской и Ульяновской областей Олег Мельниченко и Алексей Русских, лжеглава Башкирии Радий Хабиров, фальшивый председатель Госсобрания Марий Эл Анатолий Смирнов. В Саратовской области покусились на святое – детей. От имени главы региона Романа Бусаргина рассылали письма с просьбой принять участие в благотворительной новогодней акции и пожертвовать деньги детям.
Но мошенники пошли еще дальше и, к примеру, заговорили голосами главы Удмуртии Александра Бречалова и губернатора Пермского края Дмитрия Махонина. Разберем подробнее, как им это удалось и какие еще схемы есть в арсенале злодеев.
Подмена голоса
Используя технологии синтеза речи на основе ИИ, злоумышленники могут создавать автоматизированные голосовые сообщения, которые могут звучать как реальные люди или даже имитировать голос знакомого. Для этого достаточно получить модель голоса у жертвы – завести диалог или извлечь из переписки во взломанном аккаунте. В истории с чиновниками их порой генерируют на основе речи официального выступления.
Как уберечься от мошенников
Если речь идет о звонке родственника, руководителя, службы безопасности банка, необходимо включать критическое мышление и перепроверять полученную информацию. Лучше отказаться от разговора и взять небольшую паузу. Затем самостоятельно перезвонить и удостовериться в истинности слов.
Дипфейки
Есть нейросети, которые могут заменить лицо на видео. Помните, как на прямой линии к президенту Владимиру Путину обратился он же сам? Это яркий пример такой работы. Пока технологии дипфейков работают лишь в видео и неспособны вести прямую трансляцию. Ключевое слово «пока».
Благодаря соцсетям проблем с доступом к фотографиям у мошенников точно нет. Подделанные фотографии могут быть использованы для создания фальшивых профилей в социальных сетях, не исключено, что с пикантным контентом, чтобы потом вымогать деньги у жертвы.
Как не стать жертвой дипфейкового обмана
Для обнаружения видео-дипфейков существуют специализированные программы и алгоритмы. Они анализируют артефакты и аномалии в данных, такие как неестественные перемещения. Также понять, что видео некорректно, можно, например, по рукам снятого в нем человека. Лучше попытаться с человеком выйти на связь по видео в прямом эфире.
Фальсификация документов
Нейросети умеют подделывать паспорта, водительские удостоверения, банковские выписки, личные данные, медицинские справки. Имея на руках поддельные документы и украденный аккаунт, мошенники могут взять микройзайм, оформить фирму-однодневку, просить денег на лечение и проч.
Как защититься от злоумышленников
Внимательно следить за своими личными данными в Сети, не хранить фото и сканы важных документов в облаке и тем более не рассылать их в подозрительные организации или по странным ссылкам. Ваш приятель в беде и нуждается в деньгах на лекарства, лечение или реабилитацию? Вероятнее, он расскажет об этом лично, а не запустит жалобное сообщение по всем контактам.
Фишинговые рассылки
Наверняка многих из вас подозрительно просили проголосовать за ребенка коллеги в конкурсе талантов… Злоумышленники могут создавать персонализированные и убедительные фишинговые письма и сообщения. ИИ позволяет автоматизировать процесс анализа данных о потенциальной жертве, что делает фишинг более эффективным и сложным для обнаружения.
Как не попасть на уловку мошенников
Не переходить по подозрительным ссылкам для голосования, а для защиты установить двухфакторную аутентификацию в мессенджерах.
Мошенников привлекает в ИИ простота в использовании, скорость работы и отсутствие человеческой ошибки, уверена старший преподаватель кафедры киберспорта факультета игровой индустрии и киберспорта Университета «Синергия» Виктория Береснева.
«Главным инструментом для борьбы может стать всеобщее обучение и распространение знаний об ИИ: что он умеет и как им могут пользоваться для реализации незаконных целей», – уверена собеседница.
Что будет дальше с ИИ?
Эксперты, опрошенные «ФедералПресс», едины во мнении – схемы преступлений на основе искусственного интеллекта будут развиваться и совершенствоваться. Причем по мере развития технологий искусственного интеллекта можно ожидать более сложных и утонченных методов.
«Однозначно с развитием технологий уйдут старые схемы. Они трансформируются в более изощренные способы обмана, при которых сложно подумать, что это мошенники», – уверена блокчейн-продюсер, директор по инвестициям компании RedPad Games AG Кристина Белякова.
«Любые сообщения – голосовые и даже видео – априори скомпрометированы, достоверность каждого из них под вопросом. Это приводит к тому, что серьезно разрастается фобия перед любыми цифровыми сервисами», – говорит Андреев.
Сверх того, дальше может быть еще хуже, если ИИ научится формировать инструментарий для обмана без участия человека. Такие атаки будет намного сложнее локализовать, поскольку они будут исходить не от конкретного нарушителя, а из нейросети.
При этом скорость распространения сервисов настораживает, обращает внимание на проблему эксперт по искусственному интеллекту, основатель и СЕО Mirey Robotics Андрей Наташкин. По его мнению, правовое поле не готово к подобным ситуациям, то есть фактически жертва не имеет законного основания для своей защиты.
Эксперт в области педагогики и IT-технологий Кирилл Ситнов говорит, что старые схемы тоже останутся актуальными, так как атаки мошенников направлены на представителей пожилого возраста. У них еще нет достаточной квалификации в распознавании мошенников, плюс они более доверчивые.
«Следующим этапом, как по мне, станет какая-нибудь автоматизированная спам-рассылка ботами, где тексты будут генерироваться ChatGPT или чем-то подобным. Да и про видео забывать не стоит. Думаю, скоро и видеофейки наберут оборот, когда станут проще в использовании», – считает эксперт.
Ранее «ФедералПресс» разбирался в теме, кто же такие цифровые аборигены, с какими проблемами может столкнуться это поколение и какую угрозу для них несет неограниченное потребление информации. При чем тут крупные корпорации, почему нужно выбраться из цифрового пузыря, читайте в материале издания.
Изображение сгенерировано нейросетью Kandinsky 3.0 и 2.1
Эксклюзивы «ФедералПресс»