Редакция «ФедералПресс» / Святослав Фирсов
Москва
17 ОКТЯБРЯ, 2022
Технология deepfake, которая с помощью нейросетей создает поддельные фото и видео, изначально создавалась для развлекательных целей. Позже выяснилось, что эта технология может представлять серьезную угрозу для отдельных пользователей, политиков и компаний. Заместитель директора Института стратегических исследований и прогнозов РУДН, член Общественной палаты РФ Никита Данюк рассказал о борьбе с неправомерным использованием этой технологии:
«Что касается истории про дипфейки, действительно, мы видим ситуацию, при которой распространение фейков, созданных по технологии deepfake несет серьезную угрозу для политиков, для бизнеса, для отдельных пользователей и так далее. Можно сказать, что подобного рода лживый контент в разных ситуациях и при разных обстоятельствах способен нанести вред пользователю, посеять панику, испортить репутацию. Бороться с этим достаточно сложно. Помимо всего прочего, для мошенников – это способ украсть персональные данные и деньги людей, компаний и так далее.
При этом очень странно говорить о том, что технология – зло. Технология deepfake – не зло, она может служить и во благо: помогать в съемках фильмов, рекламы. Все зависит от того, кто пользуется этими технологиями. Вот в руках злоумышленников эта технология может превратиться в угрозу большого масштаба. Например, в том же Китае в управлении по вопросам киберпространства считается, что фейки могут поставить под угрозу даже национальную безопасность страны. Поэтому, безусловно, дипфейки – это новые вызовы, они требуют новых решений, в том числе юридических. То, что возможность использования этой технологии в настоящей момент обширная, это здорово, и полностью запрещать создание дипфейков, на мой взгляд, неправильно. Подход «все запретить» полностью деструктивен и себя не оправдывает.
Но что нужно делать? Нужно создавать качественную правовую базу по созданию и распространению дипфейков. Для этого, конечно, важно посмотреть на опыт других стран, которые столкнулись с такой ситуацией, на тот же китайский опыт. Он, по-моему, эффективен, можно маркировать дипфейки, это хорошая практика.
Компании, организации и конкретные специалисты, которые производят и распространяют контент, они всего лишь должны помечать, что их продукт не является правдивым. Таким образом определенные риски можно нивелировать. Если же компании не идут навстречу и специально хотят вводить кого-то в заблуждение, то к ним нужно применять другие меры определенного характера. Как я уже говорил, сама технология замечательная, но когда она становится чьим-то инструментом для манипуляции, для мошенничества, для воровства – это нужно пресекать».
Фото: ФедералПресс / Полина Зиновьева