Бизнес

Эксперты

Приложения

Центр

Юг

Северо-Запад

Приволжье

Урал

Сибирь

Кавказ

Дальний Восток

Донбасс

Искусственный интеллект в руках мошенников: как защититься от вымогательства

Редакция «ФедералПресс» / Нина Стешенко
Москва
19 ЯНВАРЯ, 2026

МОСКВА, 19 января, ФедералПресс. Злоумышленники активно применяют искусственный интеллект для вымогательства, а также проникают в личные аккаунты, чтобы оказывать давление на жертв с помощью конфиденциальной информации, сообщила адвокат Вероника Полякова.

«Использование технологий искусственного интеллекта (deepfake) для шантажа и вымогательства – один из самых опасных трендов», – сказала Полякова.

По словам юриста, мошенники используют поддельные сообщения, имитируя голос близкого человека в беде. Эффективная защита – договоренность о кодовом слове или алгоритме действий в экстренной ситуации. При подозрительном звонке следует прекратить его и связаться с родственником проверенным способом, подчеркнула Полякова.

Адвокат также предупредила, что уступка шантажистам усугубляет проблему. Сделав первую выплату, вы не решите проблему, а усугубите ее, став постоянным источником финансирования для преступника с юридической точки зрения. В подобных случаях важно сохранять доказательства переписки, а также немедленно обратиться в полицию за юридической помощью.

В разговоре с РИАМО эксперт также напомнила об опасности передачи кодов из SMS, доступа к личным кабинетам и перехода по сомнительным ссылкам.

«В случае малейших сомнений – прекращайте коммуникацию и консультируйтесь с близкими или юристом», – резюмировала эксперт.

В 2026 году граждане столкнутся с новыми угрозами мошенничества, предупреждают юристы. По словам экспертов, злоумышленники будут активно использовать эмоциональное давление и современные цифровые технологии.

Изображение сгенерировано с помощью ИИ / Маргарита Неклюдова