МОСКВА, 19 ноября, ФедералПресс. В последние годы термин «дипфейк» стал широко известен и обсуждаем. Под ним понимаются технологии, позволяющие синтезировать изображения или голоса с помощью искусственного интеллекта. Игорь Чувствинов, ведущий юрисконсульт практики интеллектуальной собственности юридической компании «ЭБР», делится своими мыслями о возможных последствиях, с которыми мы можем столкнуться в связи с распространением дипфейков.
«Стремительное развитие технологий ИИ на сегодняшний день привело к тому, что искусственный интеллект умело и эффективно способен генерировать огромное количество различных объектов, создание которых принято считать исключительно сферой деятельности человека – творчеством», – отметил эксперт.
На сегодняшний день ИИ умеет создавать изображения, музыку, видеоматериалы, элементы дизайна и многое другое. ИИ, научившись писать и звучать подобно живому человеку, способен не просто имитировать что-то либо кого-то, а буквально выдавать себя за кого-то другого. Например, известными случаями использования дипфейк-технологий стало создание видеороликов, с событиями в которых участвуют реальные люди. Однако на самом деле ни этих событий, ни участия в них тех самых людей, которые были изображены в видеороликах, не случалось.
Среди дипфейков встречаются шуточные ролики и серьезные проекты. Например, биографический фильм об известной французской певице Эдит Пиаф, обладающей уникальным и мощным голосом, которая умерла в 1963 году. В упомянутом фильме ее голос генерируется с помощью ИИ.
Но, добавил Игорь Чувствинов, порой потрясающая реалистичность, созданного ИИ контента, имеет совершенно неожиданные последствия, которые нуждаются в адекватном правовом регулировании.
«Безусловно, использование таких технологий вызывает огромный спектр различных вопросов, от морально-этических до правовых. Ведь стремительное развитие дипфейков может использоваться не только во благо, но и во вред», – отметил юрист.
По словам Чувствинова, в киноиндустрии не редки случаи, когда про известных личностей снимают якобы биографическое кино, но на деле режиссеры что-то добавляют от себя, в связи с чем наследники личности, про которую сняли кинофильм, оказываются недовольны.
Кроме того, использовать голос и внешность кого-то можноиспользовать, к примеру, для клеветы на кого-либо или других мошеннических действий.
«В связи с этим перед государством и обществом встают вопросы, ответы на которые, уверен, в скором времени будут найдены», – подчеркнул специалист.
Так, уже сегодня разрабатывается инициатива, устанавливающая запрет и уголовную ответственность за клевету и мошенничество (законопроект 718538-8) с использованием дипфейк-технологий, имитирующих голос человека, уточнил Игорь Чувствинов. Законопроект предлагает установить в УК РФ нормы, которые предусматривают более строгую ответственность за мошенничество и клевету, сопряженные с использованием дипфейков. Таким образом, если законопроект примут, то в УК РФ появится квалифицированный состав преступления с более строгой ответственностью.
«Упомянутый законопроект – это только один из первых шагов на пути к формированию регулирования дипфейков. Очевидно, что для решения различных потенциально способных возникнуть правовых вопросов, связанных с законностью использования изображения человека и его голоса, а также имитации последнего, нужно отдельное регулирование в рамках гражданского законодательства. Например, регулирование, которое установит права наследников разрешать или запрещать компаниям использовать голос или его имитацию умершего певца-исполнителя. Аналогичные права для наследников можно установить в отношении изображения гражданина», – уточнил юрист.
Чувствинов добавил, что несмотря на описанные проблемы, дипфейки, как и технологии ИИ, являются значимой вехой в развитии общества и полезным инструментом для творчества, благодаря которому открываются новые возможности. И хоть эти возможности могут быть использованы как во благо, так и во вред, как и в случае с любым другим инструментом, только самому обществу решать, будет ли он направлен на созидательные или разрушительные цели.
Напоним, мошенники все чаще звонят по видеосвязи, чтобы повысить доверие граждан. Также мошенники могут использовать аудио или видеозапись, чтобы сгенерировать фейковое послание от имени жертвы и разослать его родственникам и знакомым, например, с просьбой перечислить деньги.
Изображение сгенерировано нейросетью Kandinsky 2.1