OpenAI обяви на 28 февруари 2026 г. споразумение с Министерството на отбраната на САЩ за внедряване на модели на компанията в класифицирани среди. OpenAI заяви, че в договора са включени ограничения за употребата на изкуствен интелект. Компанията посочи, че ще поддържа технически защитни механизми при внедряването, включително инженери „в цикъла“.

Според публикации на Axios и TechCrunch темата идва на фона на публичен спор между Пентагона и конкурента Anthropic. Anthropic е отказала условия за употреба „за всички законни цели“ без изрични ограничения за определени рискови приложения. Дискусията е засегнала и въпроса дали договорите трябва да ограничават не само частни данни, но и масово агрегиране на публично достъпна информация.

OpenAI посочи три „червени линии“ и заяви, че може да прекрати договора при нарушение на условията.

Ключови факти

  • Споразумението е обявено с дата 28 февруари 2026 г. от OpenAI.
  • Внедряването е за класифицирани мрежи и среди на Министерството на отбраната на САЩ.
  • OpenAI описва три „червени линии“, които според компанията са закрепени с договорни клаузи и технически мерки.

Как OpenAI описва „червените линии“

OpenAI определя „червени линии“ като употреби, които не допуска за своите модели в рамките на споразумението с Министерството на отбраната. Компанията ги представя като забрани за конкретни категории приложения.

Трите забрани, които OpenAI посочва

  • Без масово вътрешно наблюдение, включително масово следене на населението в страната.
  • Без насочване на автономни оръжейни системи с технология на OpenAI.
  • Без автоматизирани решения с висок залог, включително системи тип „социален кредит“, без човешко одобрение.

Как OpenAI твърди, че ги прилага

OpenAI заяви, че комбинира договорни клаузи с технически ограничения. Компанията посочи, че договорният текст допуска употреба „за всички законни цели“. Според OpenAI са добавени изисквания за човешки контрол при оръжия и за човешко одобрение при решения с висок залог.

OpenAI се позова и на американски правни рамки и политики за разузнавателни дейности и обработка на лична информация. Компанията изброи Четвъртата поправка, Закона за националната сигурност от 1947 г., Закона за наблюдение на чуждестранното разузнаване от 1978 г. и Изпълнителна заповед 12333.

OpenAI заяви, че може да прекрати договора, ако другата страна наруши условията.

Къде остава спорът: публичните данни и наблюдението

Критиките към сделката се фокусират върху това дали ограниченията са достатъчно конкретни, за да предотвратят масово наблюдение чрез агрегиране на публично достъпна информация. Axios съобщи, че спорът около разговорите с Anthropic е включвал и въпроса дали договорът трябва изрично да забранява събиране и обединяване на публични данни за цели, които на практика водят до наблюдение, дори когато не се използват „частни“ данни.

OpenAI заяви, че е изключила „масовото вътрешно наблюдение“ от допустимата употреба. Компанията добави, че договорът включва повече предпазни мерки от предишни внедрявания в класифицирани среди.

Какво следва

Министерството на отбраната на САЩ разширява използването на генеративен изкуствен интелект в класифицирани среди. Компаниите се опитват да формулират граници, които да останат валидни при промени в политиките и при оперативен натиск. Ключовият въпрос е как договорните клаузи и техническите ограничения ще се прилагат на практика при заявки за употреби, близки до забранените категории.