Государственная дума готовит ко второму чтению законопроект о регулировании сферы искусственного интеллекта. Документ вводит понятие «заведомо знал или должен был знать» применительно к ответственности разработчиков и операторов ИИ-систем. Эта формулировка вызвала вопросы у профессионального сообщества: не перекладывают ли на создателей алгоритмов бремя доказывания своей невиновности? И не будут ли их привлекать за всё, что натворят пользователи с помощью нейросетей? Специально для «ФедералПресс» ситуацию разъясняет Михаил Хохолков, медиаюрист, эксперт в области правового регулирования цифровых технологий.
По словам эксперта, презумпция невиновности, гарантированная Конституцией РФ, заключается в том, что обвиняемый в совершении преступления считается невиновным, пока его виновность не будет доказана в предусмотренном федеральным законом порядке и установлена вступившим в законную силу приговором суда.
«Формулировка «заведомо знал или должен был знать» в статье 11 проекта закона вводит стандартную конструкцию вины в форме умысла или неосторожности, аналогичную нормам ГК РФ и УК РФ. Презумпция невиновности здесь сохраняется: разработчик модели (как и другие субъекты) не обязан заранее доказывать свою невиновность. Слова «заведомо должен был знать» означает грубую неосторожность, невнимательность, неосмотрительность. Еще пример: разработчик знал, что негативные последствия могут наступить и желал их наступления, никаких мер по устранению рисков не предпринял», – отметил он.
«На практике суды будут оценивать вину по объективным критериям: предпринял ли разработчик исчерпывающие меры к предотвращению получения такого негативного результата или игнорировал предвидимые угрозы. Однако для защиты разработчики должны вести документацию рисков, тестов и мер, учет инцидентов (как требует ст. 10), чтобы опровергнуть вину в суде», – сказал Хохолков.
По поводу риска привлечения к ответственности за действия пользователей (например, создание дипфейков) эксперт заметил, что риск привлечения разработчиков, операторов или владельцев сервисов ИИ к ответственности за действия пользователей, включая создание дипфейков, существует, но он ограничен и зависит от доказанной вины.
«Пользователи несут полную ответственность за умышленное использование ИИ в противоправных целях (ч. 4 ст. 11), включая обход защит (пп «в» п. 4 ст. 10). И если вред – следствие действий пользователя, разработчики освобождаются от ответственности (ч. 5 ст. 11)», – заключил эксперт.
Изображение сгенерировано с помощью ИИ / Светлана Возмилова


