- Anthropic подала в суд на Пентагон после того, как правительство США фактически внесло стартап в «черный список».
- Компания заявляет, что этот шаг уже нанес ущерб ее бизнесу.
- Anthropic добивается временного судебного запрета против Министерства обороны.
Юрист компании Anthropic заявил, что правительство США «оказывает давление» на клиентов стартапа, чтобы те перешли к конкурирующим поставщикам ИИ, на фоне обострения конфликта между разработчиком Claude и Министерством обороны.
На конференции во вторник Майкл Монган, адвокат Anthropic, заявил, что решение Министерства обороны фактически запретить стартапу работать с вооруженными силами США наносит компании «реальный и непоправимый ущерб» ежедневно.
Монган сообщил, что клиенты начали «выражать сомнения» по поводу сотрудничества с Anthropic, и что правительство проводит кампанию по оказанию давления, чтобы клиенты Anthropic отказались от их услуг и перешли к конкурирующим ИИ-компаниям.
«Мы столкнулись с ситуацией, когда университетские системы и компании, работающие в сфере B2B, перешли к конкурирующим ИИ-компаниям», — сказал Монган. «И все это является предсказуемым результатом действий ответчика и созданной им неопределенности, а также того факта, что ответчики активно связывались с нашими клиентами и оказывали на них давление, чтобы они прекратили работу с Anthropic и переключились на другие ИИ-компании».
В прошлом месяце, после того как переговоры по контракту с ИИ-стартапом провалились, министр обороны Пит Хегсет объявил, что Anthropic представляет собой «риск для цепочки поставок», и представил этот шаг как выходящий за рамки прямой военной работы.
«С немедленным вступлением в силу ни один подрядчик, поставщик или партнер, ведущий бизнес с вооруженными силами США, не может осуществлять какую-либо коммерческую деятельность с Anthropic», — заявил Хегсет в сообщении на X от 27 февраля.
Масштабы определения «риска для цепочки поставок» оспариваются. Microsoft ранее заявила, что ее юристы пришли к выводу, что компания по-прежнему может использовать Anthropic для работы, не связанной с военными целями. Компания также подала amicus curiae («мнение друга суда»), призывая федеральный суд временно заблокировать это правительственное определение.
Суть проблемы заключается в позиции Anthropic: ее передовая модель Claude не может использоваться для автономного оружия и массовой слежки за гражданами США. Представители Министерства обороны в ответ заявили, что частная компания не может диктовать, что военные могут и чего не могут делать.
Генеральный директор Anthropic Дарио Амодеи заявил в своем блоге 26 февраля, что компания не может согласиться с требованием правительства о неограниченном и законном использовании ее модели. Днем позже Хегсет официально присвоил Anthropic статус «риска для цепочки поставок».
В понедельник Anthropic подала в суд на правительство, добиваясь временного судебного запрета для продолжения деловых отношений с правительством на время рассмотрения дела. В иске компания заявила, что Министерство обороны не представило достаточных оснований для того, чтобы назвать ее угрозой национальной безопасности.
Кроме того, компания заявила, что это обозначение никогда ранее не применялось к американской компании, и что этот шаг является ответным, нарушающим права компании по Первой поправке выражать свои взгляды на безопасность и ограничения ИИ.
По данным судебных документов, последствия включения Anthropic в «черный список» были быстрыми.
Кришна Рао, финансовый директор Anthropic, заявил в декларации, поданной в понедельник, что Министерство обороны связывалось с несколькими «портфельными компаниями относительно использования ими Claude» и что эти клиенты «стали беспокоиться и не уверены» в своей способности использовать модель.
Финансовый директор отметил, что действия правительства могут сократить выручку Anthropic в 2026 году на «несколько миллиардов долларов».
Представители Anthropic и Пентагона, а также юрист Anthropic не ответили на запрос о комментарии.





