Top.Mail.Ru
Общество
Москва
0

Нейрозлоумышленники: как ИИ используется в преступных целях

мошенник
С помощью ИИ аферисты научились подделывать голоса, электронные письма и видео «с участием» известных россиян

МОСКВА, 7 августа, ФедералПресс. Нет сомнения, что технология искусственного интеллекта (ИИ) приносит пользу в разных отраслях экономики России и сфере государственного управления. Однако, когда ИИ попадает в руки злоумышленников, эта технология становится опасной для общества.

«К сожалению, преступники активно используют ИИ. С помощью этой технологии они создают поддельные видео с участием звезд и политиков», – сказал член правления РОЦИТ, директор по взаимодействию с госорганами и общественными организациями SkillStaff Андрей Ярных.

По словам эксперта, сегодня стало известно о появлении в интернете дипфейка с временно исполняющим обязанности главы Курской области Алексеем Смирновым. На видео он якобы призывает всех мужчин региона явиться в военкоматы для получения оружия.

Андрей Ярных напомнил, что кроме этого, злоумышленники с помощью ИИ подделывают голоса, чтобы воровать деньги у людей и компаний. Так, в июле этого года СМИ сообщили о том, что мошенники подделали голос генерального директора Ferrari и позвонили одному из руководителей этой компании. Они хотели обманом украсть деньги у Ferrari, но у них ничего не получилось. Однако не все подобные истории оканчиваются так благополучно для компаний. Не раз были случаи, когда у аферистов все-таки получалось подобным способом своровать деньги у разных организаций.

Злоумышленники также используют ИИ для создания фишинговых электронных писем и мошеннических объявлений о продаже или об аренде чего-либо, добавил Ярных. Это также касается объявлений о вакансиях. ИИ упростил и ускорил процесс создания большого количества фишинговых электронных писем и мошеннических объявлений.

«В связи с этим актуален вопрос маркировки контента, созданного с помощью нейросетей. И наши власти об этом знают. В Государственной Думе РФ уже ведется разработка концепции закона о маркировке подобного контента», – отметил эксперт.

Андрей Ярных напомнил также, что в интернете можно найти много советов, как не стать жертвой мошенников, которые используют ИИ. Но есть универсальный – использовать навык критического мышления. То есть подходить к каким-либо видеороликам, звонкам и объявлениям скептически. И по возможности перепроверять информацию.

Ранее поделился эксперт РОЦИТ, руководитель проекта «Технологии» «Российской газеты» Олег Капранов также отмечал необходимость специальной маркировки контента, который создается с помощью искусственного интеллекта. По мнению эксперта, это надлежит сделать ради безопасности пользователей.

Изображение сгенерировано нейросетью Kandinsky 2.1

Подписывайтесь на ФедералПресс в Дзен.Новости, а также следите за самыми интересными новостями в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Добавьте ФедералПресс в мои источники, чтобы быть в курсе новостей дня.