Top.Mail.Ru
Общество
Москва
0

«Заведомо должен был знать»: как новая норма об ИИ изменит жизнь разработчиков и защитит от дипфейков

ИИ
Риск привлечения к ответственности за дипфейки существует, но зависит от многих обстоятельств

Государственная дума готовит ко второму чтению законопроект о регулировании сферы искусственного интеллекта. Документ вводит понятие «заведомо знал или должен был знать» применительно к ответственности разработчиков и операторов ИИ-систем. Эта формулировка вызвала вопросы у профессионального сообщества: не перекладывают ли на создателей алгоритмов бремя доказывания своей невиновности? И не будут ли их привлекать за всё, что натворят пользователи с помощью нейросетей? Специально для «ФедералПресс» ситуацию разъясняет Михаил Хохолков, медиаюрист, эксперт в области правового регулирования цифровых технологий.

По словам эксперта, презумпция невиновности, гарантированная Конституцией РФ, заключается в том, что обвиняемый в совершении преступления считается невиновным, пока его виновность не будет доказана в предусмотренном федеральным законом порядке и установлена вступившим в законную силу приговором суда.

«Формулировка «заведомо знал или должен был знать» в статье 11 проекта закона вводит стандартную конструкцию вины в форме умысла или неосторожности, аналогичную нормам ГК РФ и УК РФ. Презумпция невиновности здесь сохраняется: разработчик модели (как и другие субъекты) не обязан заранее доказывать свою невиновность. Слова «заведомо должен был знать» означает грубую неосторожность, невнимательность, неосмотрительность. Еще пример: разработчик знал, что негативные последствия могут наступить и желал их наступления, никаких мер по устранению рисков не предпринял», – отметил он.

«На практике суды будут оценивать вину по объективным критериям: предпринял ли разработчик исчерпывающие меры к предотвращению получения такого негативного результата или игнорировал предвидимые угрозы. Однако для защиты разработчики должны вести документацию рисков, тестов и мер, учет инцидентов (как требует ст. 10), чтобы опровергнуть вину в суде», – сказал Хохолков.

По поводу риска привлечения к ответственности за действия пользователей (например, создание дипфейков) эксперт заметил, что риск привлечения разработчиков, операторов или владельцев сервисов ИИ к ответственности за действия пользователей, включая создание дипфейков, существует, но он ограничен и зависит от доказанной вины.

«Пользователи несут полную ответственность за умышленное использование ИИ в противоправных целях (ч. 4 ст. 11), включая обход защит (пп «в» п. 4 ст. 10). И если вред – следствие действий пользователя, разработчики освобождаются от ответственности (ч. 5 ст. 11)», – заключил эксперт.

Изображение сгенерировано с помощью ИИ / Светлана Возмилова

Подписывайтесь на ФедералПресс в МАХ, Дзен.Новости, а также следите за самыми интересными новостями в канале Дзен. Все самое важное и оперативное — в telegram-канале «ФедералПресс».

Добавьте ФедералПресс в мои источники, чтобы быть в курсе новостей дня.