Top.Mail.Ru
Общество
Москва
0

Найти и обезвредить: как будет работать сервис для распознавания созданного нейросетями контента

ИИ
В России рассматривается возможность запуска государственного сервиса, который будет определять, был ли контент создан с использованием нейросети

Российских пользователей и бизнес ждет появление нового цифрового сервиса. Минцифры анонсировало разработку государственного сервиса, способного по «цифровым уликам» определить, создан контент человеком или искусственным интеллектом. Пока технология готовится к запуску, эксперты предупреждают: волна мошеннических атак с использованием дипфейков и нейросетей уже накрыла корпоративный сектор и защищаться от нее нужно сегодня. Подробности – в материале «ФедералПресс».

Что известно о новом сервисе

В России рассматривается возможность запуска государственного сервиса, который будет определять, был ли контент создан с использованием нейросети. Об этом 6 ноября на IT-форуме сообщил заместитель министра цифрового развития Александр Шойтов. По его словам, пользователь сможет загрузить любой файл и получить ответ, настоящий он или сгенерированный.

Новый инструмент будет фокусироваться на выявлении характерных признаков генерации ИИ. Фактически власти предлагают создать централизованный и, что важно, доступный инструмент для верификации цифровой информации.

Инициатива Минцифры выглядит логичным ответом на стремительную эволюцию генеративных нейросетей. Если еще год назад отличить написанный ИИ текст или сгенерированное изображение мог рядовой пользователь, сегодня это требует специальных знаний или программного обеспечения. Это создает риски для национальной безопасности, распространение фейков и манипуляции общественным мнением. Государственный сервис призван стать публичным антидотом против цифровой лжи, позволяя СМИ, госорганам и обычным гражданам проводить базовую проверку контента.

Как сотрудникам компаний защититься от мошенников, которые используют ИИ

Пока государственный сервис только готовится к запуску, бизнес в РФ уже сталкивается с реальными атаками. Согласно исследованиям, две трети сотрудников не получают от работодателя информации об актуальных угрозах, связанных с ИИ. Между тем мошенники все активнее используют дипфейки руководителей и подложные документы, сгенерированные нейросетями. На корпоративный сегмент приходится четверть таких атак.

Ожидание появления технологического «щита» – опасная стратегия. Защита от мошенничества с использованием ИИ начинается не с детектора, а с выстраивания строгих организационных барьеров. Эксперты по кибербезопасности рекомендуют компаниям немедленно внедрить ряд мер, не требующих сложных технических решений, но значительно снижающих риски.

  • Первое и основное – организация защищенных каналов для финансовых инструкций.
  • Второе – правило «два независимых канала» для подтверждения экстренных операций.
  • Третья мера – обязательное двойное подтверждение для крупных платежей. Любая сумма, превышающая установленный внутренний лимит, должна проходить через согласование минимум двух уполномоченных сотрудников из разных отделов.
  • Четвертый, нестандартный, но эффективный метод – использование кодовых фраз.
  • Пятый и шестой пункты – это регулярные инструктажи по кибербезопасности и разработка пошагового регламента действий при инциденте.

Рекомендуем также прочитать на «ФедералПресс» о том, что петербуржцам объяснили, как мошенники используют нейросети для обмана при продаже авто.

Изображение сгенерировано с помощью ИИ / Светлана Возмилова

Подписывайтесь на ФедералПресс в МАХ, Дзен.Новости, а также следите за самыми интересными новостями в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Добавьте ФедералПресс в мои источники, чтобы быть в курсе новостей дня.