Европейският съюз навлиза в нов етап от контрола върху съдържанието, създадено с AI. Европейската комисия подготвя кодекс за маркиране и етикетиране на такива материали. Задължителните правила за deepfake и част от синтетичния текст започват да се прилагат на 2 август 2026 г.

Когато изображение, аудио, видео или текст е създаден или убедително променен с AI и може да подведе хората, то трябва да бъде ясно обозначено.

Темата засяга пряко България. Новите изисквания имат значение за медии, рекламни агенции, онлайн търговци, политически кампании и институции, които публикуват съдържание за широка аудитория.

Какво се променя

Рамката идва от AI Act, европейския регламент за изкуствения интелект. Според Европейската комисия правилата за прозрачност изискват част от AI съдържанието да бъде разпознаваемо. Deepfake материалите и текстовете, публикувани с цел да информират обществото по въпроси от обществен интерес, трябва да бъдат ясно и видимо етикетирани.

На 5 ноември 2025 г. Комисията започна работа по отделен Code of Practice за маркиране и етикетиране на AI съдържание. Целта е бизнесът и институциите да получат практически насоки как да изпълнят закона. Това включва и machine-readable маркировка, която да подпомага автоматичното откриване на синтетично съдържание.

Ключови срокове

  • 5 ноември 2025 г. - Европейската комисия започна работа по Code of Practice.
  • Второто тримесечие на 2026 г. - очакват се насоки и проект на кодекса.
  • 2 август 2026 г. - започва прилагането на правилата за прозрачност по AI Act.

Срокът за подготовка е ограничен. Редакции, платформи и компании вече използват генеративен AI в маркетинг, обслужване на клиенти, видео продукция и публични съобщения.

Кого засягат правилата

Изискванията не се отнасят само до големите AI компании. Те важат и за организации, които използват готови инструменти и публикуват резултата.

  • медии и новинарски сайтове,
  • маркетинг и PR агенции,
  • онлайн платформи и търговци,
  • политически кампании и обществени организации,
  • държавни и общински структури.

Основният риск е подвеждане на публиката. Без етикетиране синтетичното съдържание може да изглежда като автентично. Това създава условия за измами, фалшиви изявления, манипулирани видеа и подвеждащи публикации по чувствителни теми.

Защо това има значение за България

Българският пазар е малък, но е силно зависим от глобални платформи и евтини AI инструменти. Това прави местната информационна среда уязвима. Фалшив аудиозапис, снимка или видео може бързо да се разпространи през социални мрежи, чат групи и сайтове с неясен произход.

За редакциите това означава нов стандарт за проверка и обозначаване. За бизнеса това означава нов разход и нова правна отговорност. За потребителите това може да донесе повече яснота кое е реално и кое е синтетично.

Какво казва Европейската комисия

Според Европейската комисия целта е да се намали рискът от дезинформация, измами, имитация и подвеждане на потребителите, като се повиши доверието в информационната среда.

Комисията определя новия кодекс като доброволен инструмент, който да помогне на доставчици и ползватели на генеративен AI да изпълнят законовите си задължения. Самият закон не е доброволен. При нарушение AI Act предвижда санкции. В общия режим на регламента глобите могат да достигнат до 3% от световния годишен оборот за част от нарушенията, а при забранени практики и повече.

Какво следва

Основният въпрос вече не е дали ЕС ще изисква етикети за deepfake. Това е решено. Въпросът е дали компании, медии и институции ще успеят да изградят процеси, с които да доказват кога AI е използван и как е обозначен.

При слаб контрол правилата могат да останат формални. При стриктно прилагане цената на анонимното синтетично съдържание в ЕС ще нарасне. Това ще засегне начина, по който се създават, публикуват и разпространяват дигитални материали в целия съюз.