Google DeepMind, Microsoft и xAI се съгласиха на 5 май 2026 г. да дават на правителството на САЩ ранен достъп до нови AI модели преди публичното им пускане. Целта е проверка за рискове за националната сигурност, киберсигурността и обществената безопасност.

Мярката не е забрана за пазарен старт. Тя обаче променя пътя, по който най-мощните AI системи стигат до потребители, компании и държавни институции.

Ранната държавна проверка означава оценка на AI модел преди публичното му пускане. Тестовете търсят опасни способности, включително при злоупотреба или заобикаляне на защитите.

Какво реши Вашингтон

Центърът за AI Standards and Innovation, CAISI, към National Institute of Standards and Technology обяви споразуменията на 5 май 2026 г.

Според NIST центърът ще прави pre-deployment evaluations, целеви изследвания и проверки след пускане на моделите. CAISI е извършил над 40 оценки, включително на модели без публичен достъп.

Reuters съобщи, че Microsoft, xAI и Google ще споделят AI модели с правителството на САЩ за проверки на сигурността. OpenAI и Anthropic вече имаха подобни партньорства.

Тези партньорства са били предоговорени. Целта е да отразят приоритетите на американското Министерство на търговията и политиката на САЩ за AI.

Какво ще се проверява

Проверките не са насочени към удобството на чатботовете. Те са фокусирани върху най-рисковите способности на frontier AI моделите.

  • Възможност за подпомагане на кибератаки.
  • Поведение при премахнати или отслабени safeguards.
  • Рискове за критична инфраструктура.
  • Потенциал за злоупотреба в биосигурност и химическа сигурност.
  • Поведение след публично внедряване.

NIST посочва, че разработчиците често предоставят на CAISI версии на модели с намалени или премахнати защити. Така експертите могат да проверят не само какво моделът отказва, а и какво би могъл да направи при пробив.

Кой получава контрол

CAISI става основната връзка между индустрията и американското правителство по тестове, общи изследвания и добри практики за търговски AI системи.

Директорът на CAISI Крис Фол заяви, че е нужна „независима, строга наука за измерване“, за да се разберат frontier AI моделите и последиците за националната сигурност.

Споразуменията са доброволни. Участието на Google DeepMind, Microsoft, xAI, OpenAI и Anthropic обаче показва, че водещите американски разработчици приемат ранната държавна проверка като част от пътя към пазара.

Защо това засяга България

Българските потребители и фирми няма да виждат тези тестове директно. Те може да усетят ефекта чрез поетапно пускане на нови модели, повече ограничения в чувствителни функции и повече изисквания към бизнес клиентите.

Най-силен ефект може да има при компании, които използват AI в софтуер, финанси, човешки ресурси, образование, здравеопазване или публични услуги. Там един модел не е само чатбот. Той може да обработва лични данни или да влияе върху достъпа до услуги.

БТА съобщи през 2026 г., че Министерството на електронното управление е водещата институция по прилагането на AI Act в България. Националната рамка остава в подготвителна фаза. Няма финални решения за надзора на високорискови AI системи.

Европейският натиск

В ЕС правилата за general-purpose AI модели по AI Act се прилагат от 2 август 2025 г. Европейската комисия посочва, че от 2 август 2026 г. започва пълното ѝ правомощие за прилагане на тези задължения, включително чрез санкции.

Това поставя българския бизнес между две регулаторни сили. От едната страна са американските проверки преди пускане. От другата са европейските изисквания за прозрачност, авторски права, техническа документация и управление на риска.

  • Новите AI функции може да стигат по-късно до европейските потребители.
  • Доставчиците може да искат повече информация от корпоративните клиенти.
  • Компаниите ще трябва да документират как използват AI модели.
  • Публичният сектор ще има по-малко пространство за експерименти без контрол.

Големият залог

Решението на САЩ показва промяна в баланса между скорост и контрол. Най-мощните AI модели вече се разглеждат не само като потребителски продукти, а и като системи с последствия за сигурността.

За България основният въпрос е отговорността. Кой носи последиците, когато AI система греши, изтичат данни или автоматизира решение, което засяга реален човек.