Top.Mail.Ru
Политика
Москва
0

Запретят ли использовать Ленина и Жириновского на выборах: разбор новой инициативы депутатов

Авторами поправок выступили представители «Единой России», ЛДПР, «Справедливой России» и «Новых людей»

Россия продолжает готовиться к большой избирательной кампании этого года. Среди новшеств – не только обновление системы ГАС «Выборы», но и меры против использования генеративного искусственного интеллекта: они предусмотрены в недавно внесенном в нижнюю палату парламента законопроекте. Какую роль нейросети могут сыграть в избирательном процессе и почему их решили ограничить, разбирается «ФедералПресс».

Новый законопроект

В Государственную думу поступили поправки к избирательному законодательству. В новом законопроекте, внесенном на рассмотрение парламента 19 февраля, прописаны технические детали избирательного процесса, например, существенно расширяются полномочия ЦИК: комиссия самостоятельно установит стандарты для цифровых протоколов голосования и процедуры их подсчета.

Но наиболее интересной выглядит поправка, ограничивающая использование искусственного интеллекта в агитационных материалах. Ключевой политической новинкой стал запрет на применение в агитации вымышленных персонажей – в том числе сгенерированных нейросетями, – а также образов усопших людей.

«Использование в агитационном материале изображения (образа) человека, в том числе вымышленного и (или) умершего, включая созданного с применением информационных технологий, не допускается, за исключением случаев, указанных в части 91 настоящей статьи», – говорится в тексте законопроекта.

Авторами поправок выступили представители «Единой России», ЛДПР, «Справедливой России» и «Новых людей». КПРФ не присоединилась, поскольку изначально отвергала регулирование нейросетей в агитации. Их позиция вполне объяснима: по сути, новая инициатива обрывает коммунистам возможности для использования образов Ленина, Сталина и других узнаваемых героев советской эпохи, считает политтехнолог Даниил Ермилов.

«У КПРФ много сильных символов: Ленин, Сталин, маршал Победы Жуков, Рокоссовский, которого в войсках знают даже лучше. Есть Юрий Гагарин и масса других примеров – людей, которые в рамках той экономической модели совершили знаковые вещи», – рассказал он в беседе с «ФедералПресс».

Однако юрист Илья Ремесло считает, что новые поправки если и ограничивают агитаторов в использовании каких-то образов, то только с точки зрения нейрогенераций. Использовать архивные фотографии по-прежнему можно. «Узнаваемые образы вождей можно создавать и использовать не только с помощью искусственного интеллекта», – подчеркивает эксперт.

Кроме того, исходя из текущего текста законопроекта, непонятно, как будет доказываться использование генеративных материалов. Очевидно, что «новые» фотографии Гагарина взять просто неоткуда, и распознать подделку будет несложно. Однако должно быть четко прописано, кто и по какой процедуре это определяет, отмечает Ремесло. «Как будет проводится экспертиза, создана картинка с помощью ИИ или нет? Это крайне сложно доказать, и существующим инструментам для этого тоже нельзя полностью доверять», – говорит собеседник «ФедералПресс».

Именно поэтому та же ЛДПР, вероятно, не столкнется с рисками при изготовлении агитационных материалов с учетом новой поправки. Как рассказал «ФедералПресс» политолог Константин Калачев, фото- и видеоматериалов с Жириновским хватит на несколько кампаний, и «генерировать его не обязательно.

«Избирательная система у нас новаторская с точки зрения организации процедуры голосования. Но никак не агитации. Партии власти этот инструментарий не нужен. А как его стали бы использовать другие партии, мы не знаем», – прокомментировал новую инициативу Константин Калачев.

Нужен ли ИИ на выборах

Сам запрет на ИИ-генерации авторы законопроекта объясняют тем, что современные информационные технологии позволяют в короткие сроки и при минимальных затратах создавать изображения реально существующих людей и образы вымышленных персонажей и использовать их в агитационных материалах. «Вместе с тем недобросовестное использование современных информационных технологий способно формировать у избирателей искаженное представление о кандидате или избирательном объединении в целях воздействия на результаты волеизъявления», – говорится в пояснительной записке к законодательной инициативе.

По сути, авторы опасаются массового использования дипфейков во время избирательной кампании: это может позволить обходить юридические нормы при изготовлении агитационных материалов и вводить избирателя в заблуждение относительно действий кандидата. Например, можно сгенерировать «участие» кандидата в мероприятии, которого на самом деле не было, или медиаконтент о его «визите» в регион, куда он не приезжал. Важно отметить, что законопроект запрещает генерацию не только давно умерших исторических личностей, но и образов живых людей.

«Искусственный интеллект позволяет делать дипфейки очень высокого качества. По одной фотографии и записи голоса можно сделать видео, которое будет считываться как реальное выступление кандидата. Но позволило бы не вылавливать кандидата для записи, но это было бы обманом», – поясняет Даниил Ермилов.

Однако на практике можно говорить об усталости людей от избытка генеративного контента, поэтому инициатива по его ограничению может быть введена еще и для того, чтобы повысить ценность реальных фото- и видеоматериалов. «Зачастую люди злоупотребляют нейросетями, и такой контент людей уже не прельщает. Отличить генерацию от реального фото сложно, но люди устали от большого количества генеративного контента. Да, он позволяет изображать кандидата в любом формате под запрос избирателя: хоть с колосом пшеницы, хоть в буденновке, но ценность такого контента теряется», – рассказал политтехнолог.

Фото: ФедералПресс / Елена Сычева

Сюжет по этой теме
26 января 2026, 11:15

Выборы-2026

Подписывайтесь на ФедералПресс в МАХ, Дзен.Новости, а также следите за самыми интересными новостями в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Сюжет по теме:
Подписывайтесь на наш канал в Дзене, чтобы быть в курсе новостей дня.