По мере того как нейросети становятся все более совершенными, отличить сгенерированный ролик от реального становится почти невозможно. Это открывает простор для создания опасных фейков — от поддельных аварий до ложных чрезвычайных ситуаций.
Штраф за намеренный обман
Как стало известно SHOT, инициативу о введении наказания за фейковые видео выдвинул депутат от партии "Новые люди" Амир Хамитов.
Главное условие для привлечения к ответственности — это доказанное намерение автора ввести аудиторию в заблуждение, а также наличие негативных последствий, вызванных этим контентом.
Когда наказание будет применено:
- Автор выдал ИИ-ролик с шок-контентом (например, фейковая авария или беспорядки) за реальное происшествие.
- Видео спровоцировало реальные расследования, разбирательства или вызвало панику.
- Из-за фейка экстренные или правоохранительные службы потратили время и деньги на проверку ложной информации.
По мнению автора инициативы, если ложный контент отвлекает государственные ресурсы, его создатель должен понести за это наказание.
Размер взысканий
Предлагается ввести административную ответственность за такое нарушение. За распространение фейковых ИИ-видео с доказанным злым умыслом предусмотрен штраф от 1000 до 5000 рублей.
Этот шаг направлен на сдерживание волны дезинформации, которая может нанести ущерб общественному порядку и безопасности.
Проблема водяных знаков
Проблема фейкового контента усугубляется тем, что даже самые передовые нейросети не всегда могут защитить свой продукт. Например, одна из самых реалистичных нейросетей, Sora 2, автоматически ставит на генерируемые ролики водяной знак, чтобы указать на его искусственное происхождение.
Однако, как отмечают эксперты, пользователи с легкостью убирают эти водяные знаки с помощью других нейросетей, после чего выдают видео за подлинную реальность. Введение административной ответственности может стать дополнительным рычагом для контроля над бесконтрольным распространением фейков.