Сейчас читают
Маркировка ИИ-видео: защита общества или попытка догнать технологию?

Загрузка времени...

Маркировка ИИ-видео: защита общества или попытка догнать технологию?

За последние два года искусственный интеллект прошёл путь, на который традиционной киноиндустрии потребовались бы десятилетия. Генерация видео, которая ещё вчера выглядела как набор дрожащих фигур и размытых лиц, теперь стала пугающе реалистичной. Современные нейросети уже способны синтезировать ролики, которые эксперт затруднится отличить от оригинальной съёмки — что говорить о массовом зрителе.

Именно в этот момент в Госдуме и заговорили о необходимости маркировать подобный контент. Инициатива выглядит как естественная реакция государства на стремительно меняющийся цифровой ландшафт: если технологии начинают вторгаться в зону общественного доверия, значит, им нужно навесить ярлык — буквально.

Суть законопроекта проста: любое видео, созданное с помощью ИИ, должно содержать заметную пометку вроде «Создано с использованием искусственного интеллекта» или «Сгенерировано ИИ». Пометка должна быть не косметической, а технической — встраиваться в метаданные и сохраняться даже после копирования или скачивания.

На бумаге это выглядит логично. Но важно понимать: мы имеем дело не просто с новым инструментом. Мы имеем дело с новой эпохой. И это означает, что никакая маркировка — какой бы разумной она ни казалась — не способна полностью остановить ни мошенников, ни политически мотивированных игроков, которые уже научились использовать дипфейки как оружие.

Тем не менее, законопроект затрагивает важную проблему: ИИ-видео впервые в истории создают угрозу не только частным лицам, но и национальной безопасности. И это меняет всё.

Положительные стороны инициативы: почему маркировка может работать — и где её реальная польза

Первое, что признают даже критики законопроекта: маркировка ИИ-контента способна повысить медиаграмотность. Для большинства пользователей любое видео долгое время оставалось абсолютным источником правды. Фото можно подделать, текст можно исказить — но видео? «Если это снято камерой, значит, это реально было» — этот принцип десятилетиями работал как общественный инстинкт доверия.

ИИ разрушил эту основу.

И здесь маркировка становится, по сути, «ремонтной прокладкой» в системе массового восприятия. Она напоминает зрителю: ролик, который вы смотрите, — не всегда факт. Он может быть сценарием, моделированием, экспериментом. И эта мысль сама по себе уже снижает риски манипуляций.

Второе преимущество — повышение прозрачности платформ. Если законопроект заставит сервисы встроить в свои генераторы технические маркеры, станет проще отслеживать происхождение контента, когда дело касается конфликтов, скандалов или расследований. Метаданные помогут экспертам определить, был ли ролик создан человеком или нейросетью, а значит, появится больше возможностей разоблачать подделки.

Третье — защита добросовестных создателей. Маркировка даст студиям, брендам и художникам возможность прямо сказать: это — художественная работа, а не документальный факт. Это позволит избежать юридических претензий, связанных с введением зрителя в заблуждение.

Четвёртое — образовательный эффект. Зрители постепенно учатся жить в новой реальности — так же, как когда-то привыкли к рекламе с надписью «не пробуйте повторить». Маркировка становится предупреждением, а предупреждения полезны.

Но вместе с тем — и это ключевой момент — все эти преимущества действуют только тогда, когда речь идёт о честных игроках, использующих официальные инструменты генерации.

А мошенники, увы, к таким не относятся.

Тёмная сторона ИИ-видео: мошенники и политические игроки давно научились обходить любые запреты

Феномен, который ещё в 2019 году считался экспериментальной забавой — подделка лиц и голоса — в 2024–2025 годах превратился в массовый инструмент злоумышленников.

Сегодня любому человеку достаточно десяти секунд вашего голоса и одной фотографии, чтобы создать видео, в котором вы «лично» просите перевести деньги, оправдываете какое-то преступление или — что ещё страшнее — делаете политическое заявление.

И такие ролики уже используются в мошенничестве.

Человек получает видео «от сына», который попал в аварию и срочно просит денег; сотрудник компании — обращение «директора» с просьбой перевести средства; пенсионерка — «официальное» видео от «банковского сотрудника».

Метка «создано ИИ» в этих сценариях, разумеется, отсутствует. И будет отсутствовать всегда — потому что злоумышленники генерируют ролики не на официальных платформах, а на подпольных сервисах, которые не спрашивают паспорт и не задают лишних вопросов.

Но ещё опаснее ситуация в сфере политики. В мире уже есть прецеденты, когда дипфейковые видео влияли на выборы, создавали фальшивые компроматы, поддельные призывы к беспорядкам или ложные признания. И точно так же в этих роликах не было никаких маркировок.

Законопроект, даже если он будет принят, никак не помешает таким роликам распространяться. Их создатели находятся вне российской юрисдикции — или просто работают анонимно. Соцсети распространяют такие материалы мгновенно, а опровержения почти никогда не успевают догонять первичную волну.

Это очень важно подчеркнуть:

в политических кампаниях время играет ключевую роль, и дипфейк, появившийся за несколько дней до выборов, может изменить настроение общества, даже если позже его признают подделкой.

И здесь маркировка, увы, бессильна.

Что говорят критики: бороться с технологиями прошлого века методами прошлого века невозможно

Основной аргумент противников законопроекта звучит так: бороться с угрозами XXI века методами XX века — бессмысленно. Технология развивается быстрее, чем законодательство успевает реагировать.

Есть несколько ключевых претензий.

1. Мошенников маркировка не остановит

Преступники не соблюдают закон. Они не будут ставить надписи и не будут сохранять метаданные. Для них появление маркировки — это скорее подсказка: теперь можно ещё проще обманывать людей, просто делая видео без всех этих пометок.

2. Ответственность перенесена на платформы, но не на пользователей

Официальные сервисы генерации и так заинтересованы в прозрачности. Однако миллионы людей скачивают локальные модели, запускают их на своих ПК и смартфонах, и никакой закон не заставит такую модель автоматически ставить нужные метки. Как контролировать такие случаи — непонятно.

3. Риски чрезмерного регулирования

Некоторые эксперты опасаются, что под предлогом борьбы с дипфейками государство может ввести слишком широкие ограничения, влияющие на творчество, образование и научные эксперименты.

Например, по аналогичным законам в других странах под удар попали даже учебные ролики, объясняющие, как работает ИИ.

4. Проблема доверия не решается ярлыками

Если каждый ролик будет содержать пометку «создано ИИ», через год зрители перестанут обращать на неё внимание. Маркировка превратится в визуальный шум — так же как многие перестали замечать предупреждения о содержании рекламы.

5. Технология уже умеет убирать метки

Некоторые нейросети способны автоматически удалять водяные знаки и скрытые маркеры. А значит, защищённость метаданных — вопрос времени.

В итоге критики утверждают:

законопроект не решает проблему, а лишь создаёт ощущение, что она решена.

И это может оказаться хуже, чем отсутствие закона вовсе.

Куда действительно нужно направить усилия: комплексные меры вместо «одного ярлыка»

Если цель — действительно уменьшить ущерб от ИИ-видео, одних штрафов недостаточно. Нужен набор стратегий, которые будут работать в связке.

1. Развитие систем автоматического распознавания дипфейков

Это направление бурно развивается в мире. Алгоритмы анализируют микродвижения лица, частоту blinking, геометрию мимики, несовпадение освещения — то, что зритель не видит. В России подобные разработки тоже ведутся, но их нужно масштабировать.

2. Обучение населения цифровой гигиене

Мошенники пользуются доверчивостью людей. А значит, нужно объяснять гражданам:

— видео не всегда доказательство;

— голос — не всегда ваш близкий;

— любое сообщение о деньгах требует проверки.

Эта работа должна быть системной, начиная со школ.

3. Ответственность соцсетей

Платформы должны оперативно блокировать подозрительные ролики, иметь горячие кнопки жалоб и работать с экспертными группами. Без этого распространение дипфейков не остановить.

4. Репутационные протоколы для политических процессов

Перед выборами, кризисами и публичными событиями должны действовать специальные механизмы оперативной проверки подлинности видео. Чем быстрее удаётся разоблачить фейк, тем меньше вреда он наносит.

5. Международное сотрудничество

Поддельные ролики часто создаются за рубежом — и действовать только внутри страны недостаточно. Требуются международные договоры, обмен данными и координация, как это уже делается в борьбе с киберпреступностью.

Маркировка может быть частью решения. Но она — лишь малая часть.

Важный шаг, но не панацея. ИИ-видео — вызов, который требует совершенно нового мышления

Инициатива о маркировке ИИ-видео — важный сигнал: государство признаёт масштабы угрозы. То, что раньше было футуристической игрушкой, сегодня способно разрушить репутации, вмешиваться в политику, красть деньги у граждан и менять общественное настроение.

Маркировка — это попытка создать правила в мире, где границы реальности начали стираться. Это — своего рода предупреждение, которое поможет обычным людям хотя бы задуматься, прежде чем доверять увиденному.

Но при этом важно понимать:

мошенники не исчезнут, политические игроки не остановятся, а ИИ-технологии будут развиваться быстрее любых законов.

Поэтому одних штрафов недостаточно. Нужна комплексная стратегия: образование, технологии, сотрудничество, ответственность платформ — и постоянное обновление подходов. Точно так же, как в своё время мир учился бороться с компьютерными вирусами, а позже — с фейковыми новостями.

Сегодня «вирусами» стали дипфейковые видео. И борьба с ними только начинается.

Маркировка — это не финал и не победа. Это лишь первый шаг к тому, чтобы сохранить доверие в эпоху, когда любое изображение может оказаться иллюзией.

А главный вопрос — тот самый, который задают и сами депутаты, и эксперты, и общество:

остановит ли это злоумышленников?

Ответ, увы, очевиден:

нет. Но без маркировки вред был бы ещё больше.

И всё же, чтобы действительно справиться с вызовами XXI века, одних методов XX века недостаточно. Нужны новые идеи, новые технологии и новая культура цифровой ответственности.

Иначе скоро мы окажемся в мире, где нельзя верить ни одному видео — даже если оно абсолютно реальное.

Мы теперь в МАХ! Не забудь подписаться!

Этот материал подготовлен без спонсоров и рекламы. Если считаете его важным — вы можете поддержать работу редакции.

Ваша поддержка — это свобода новых публикаций. ➤ Поддержать автора и редакцию

Загрузка новостей...