Министр обороны США Пит Хегсет (Pete Hegseth) близок к принятию беспрецедентного решения — присвоить компании по разработке искусственного интеллекта Anthropic статус «риска для цепочки поставок». Как сообщает Axios со ссылкой на высокопоставленный источник в Пентагоне, этот шаг станет ответом на отказ разработчика снять ограничения на использование своей модели Claude в военных целях .
Если решение будет принято, последствия для рынка станут тектоническими: любой подрядчик, желающий вести бизнес с американскими военными (бюджет ведомства исчисляется сотнями миллиардов долларов), будет обязан немедленно разорвать связи с Anthropic или лишиться контрактов с Пентагоном . Обычно такая жесткая мера резервируется для иностранных компаний из недружественных стран, и её применение к американскому технологическому лидеру демонстрирует крайнюю степень эскалации конфликта .
«Они заплатят нам за это»: суть конфликта
Причиной кризиса стали этические ограничения, которые Anthropic пытается сохранить при сотрудничестве с оборонным ведомством. Компания готова предоставлять свои передовые технологии, но требует гарантий, что ИИ не будет использоваться для организации массовой слежки за американскими гражданами, а также для разработки полностью автономных летальных систем, способных действовать без участия человека .
В Пентагоне такие условия назвали чрезмерно ограничительными. Высокопоставленный чиновник ведомства в разговоре с журналистами был предельно откровенен: «Разорвать эти связи будет чрезвычайно болезненно, и мы позаботимся, чтобы они заплатили за то, что вынудили нас к этому» . Официальный представитель Пентагона Шон Парнелл (Sean Parnell) подтвердил жесткую линию: «Страна требует, чтобы наши партнёры были готовы помочь военнослужащим одержать победу в любой битве» .
Ирония судьбы: незаменимый помощник
Ситуация осложняется тем, что модель Claude компании Anthropic на сегодняшний день является единственным коммерческим ИИ, допущенным к работе в секретных военных сетях США. По данным The Wall Street Journal, система активно применялась в ходе недавней операции по задержанию лидера Венесуэлы Николаса Мадуро, продемонстрировав высокую эффективность .
В самом Пентагоне признают, что конкуренты (OpenAI, Google и xAI) «немного отстают» в специализированных государственных приложениях, и быстрая замена Claude может оказаться технически сложной задачей . Тем не менее, давление на Anthropic нарастает: контракт с ведомством оценивается в $200 млн, что является существенной, но не критической суммой на фоне годовой выручки компании в $14 млрд .
Новые правила игры
На этом фоне Пентагон ведет переговоры с другими гигантами индустрии — OpenAI, Google и xAI. В ведомстве настаивают на стандарте использования ИИ «для всех законных целей» без дополнительных оговорок. Источники утверждают, что эти три компании уже проявили большую гибкость и готовы снять ограничения для работы в несекретных военных системах, а одна из них, вероятно, уже приняла условия Пентагона .
Для Anthropic ситуация складывается патовая. С одной стороны, компания дорожит своей репутацией ответственного разработчика и не хочет, чтобы её технологии использовались для автономной слежки и убийств. С другой стороны, статус «риска для цепочки поставок» фактически вытеснит её из крупнейшего государственного сектора и ударит по партнерам: восемь из десяти крупнейших компаний США, использующих Claude, могут быть поставлены перед жестким выбором.
В самом Anthropic пока сохраняют спокойствие, заявляя о приверженности национальной безопасности и продолжении «продуктивных и добросовестных переговоров» с Министерством обороны . Однако время для поиска компромисса стремительно уходит.




