Top.Mail.Ru
Общество
Свердловская область
0

В минцифры Челябинской области рассказали, как мошенники используют искусственный интеллект

Круглый стол ФедералПресс по ИИ
ИИ часто применяется для мошеннических операций

ЕКАТЕРИНБУРГ, 12 февраля, ФедералПресс. Искусственный интеллект часто используется в злонамеренных целях. Об этом заявил первый замминистра информационных технологий, связи и цифрового развития Челябинской области Василий Кокорюкин в ходе круглого стола «ФедералПресс», посвященного роли искусственного интеллекта во власти и бизнесе. Мероприятие прошло в Екатеринбурге.

«Искусственный интеллект – это мощный современный инструмент, но он может использоваться как в благих, так и, к сожалению, в злонамеренных целях», – отметил Василий Кокорюкин, приведя несколько примеров.

Первое направление – это так называемые фишинговые атаки и социальные инженерии. Искусственный интеллект способен анализировать стиль электронных писем и создавать персонализированные фишинговые сообщения. Также искусственный интеллект может анализировать данные социальных сетей, чтобы создавать персонализированные атаки.

«У нас одна очень технологичная региональная компания попыталась у себя внедрить искусственный интеллект для анализа и отсеивания претендентов при приеме на работу по разным проектам. И коллеги столкнулись с тем, что с той стороны попытался устроиться на работу тоже искусственный интеллект. Его удалось отсеять только на этапе приема документов. То есть чуть-чуть не хватило, чтобы ИИ устроился на работу», – рассказал Василий Кокорюкин.

Другое направление – это взломы. Искусственный интеллект может автоматически искать уязвимости и предлагать способы их эксплуатации. ИИ гораздо более быстрее, чем человек, умеет обходить системы информационной безопасности, может адаптироваться к системам защиты, например, к антивирусам или защитным экранам. Искусственный интеллект также может использоваться для анализа поведения систем безопасности в различных случаях и предлагать способы их обхода.

Еще одно применение – распространение дезинформации. Это может быть генерация фейковых новостей с изображением и видео. Были случаи, когда такие новости формировали общественное мнение, где-то могли повлиять на выборы, где-то посеять панику. Также очень часто искусственный интеллект используется при создании ботов в социальных сетях для массового распространения дезинформации.

С помощью искусственного интеллекта совершается кража данных, различные мошенничества. Например, имитируются голосовые команды для управления умными устройствами или получения доступа к сервисам «умного дома», или конфиденциальной информации.

Зачастую искусственный интеллект используется для автоматизации так называемых DDoS-атак, которые направлены на то, что сервис просто не способен «переварить» огромное количество запросов и перестает работать.

Другое направление – кибершпионаж. Здесь искусственный интеллект помогает анализировать огромный объем данных, чтобы находить ценные сведения, составляющие коммерческую тайну или какую-то информацию для служебного пользования, даже государственные секреты.

Также искусственный интеллект широко используется для мониторинга и слежки, как правило, несанкционированной. Анализируются данные с камер наблюдения, микрофонов, других устройств, что помогает следить за жертвами.

Отдельно Василий Кокорюкин остановился на мерах противодействия ИИ.

«Это, конечно же, улучшение системы обнаружения аномалий и защиты. Основное правило: если есть подозрение, что на другой стороне искусственный интеллект, а сервис предназначен для живого пользователя, то необходимо прекращать обмен любой информацией», – отметил первый замминистра.

По его словам, очень важно обучить специалистов методам противодействия атакам при помощи искусственного интеллекта и создать инструменты для обнаружения дипфейков и другой сгенерированной ИИ информации.

«Конечно, искусственный интеллект, его использование злоумышленниками — это очень серьезный вызов для общества в целом, требующий постоянного развития технологий защиты и повышения нашей с вами осведомленности», – заключил Василий Кокорюкин.

«ФедералПресс» писал, что поводом для круглого стола стал«экватор» Национальной стратегии развития искусственного интеллекта: она реализуется уже пять лет и будет выполняться до 2030 года.

Фото: ФедералПресс / Иван Кабанов

Подписывайтесь на ФедералПресс в Дзен.Новости, а также следите за самыми интересными новостями УрФО в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Добавьте ФедералПресс в мои источники, чтобы быть в курсе новостей дня.