Пентагон отвечает на иск Anthropic, заявляя о «значительном риске» для национальной безопасности

Новости экономики
Логотипы Министерства обороны США и Anthropic
В новом судебном документе Министерство обороны США изложило свои аргументы против иска Anthropic.

Правительство США призывает федерального судью отклонить попытку компании Anthropic оспорить ее статус «риска для цепочки поставок». Во вторник в судебном документе юристы Министерства обороны заявили, что федеральные агентства действовали в рамках закона, когда приняли решение постепенно отказаться от технологий Anthropic. Это произошло после того, как компания отказалась согласовать условия контракта, предусматривающие «любое законное использование» ее ИИ военными. Пентагон подчеркнул, что компания представляет угрозу национальной безопасности.

Суть спора заключается в более широком конфликте между стремлением военных использовать искусственный интеллект и ограничениями безопасности, которые они устанавливают в контрактах с поставщиками технологий.

Anthropic, создающая модель ИИ Claude, подала в суд на правительство. Это произошло после того, как Министерство обороны присвоило компании статус «риска для цепочки поставок», что фактически запретило ей участвовать в федеральных контрактах. Компания утверждает, что этот шаг был незаконной ответной мерой, связанной с ее политикой безопасности.

Правительство, в свою очередь, заявило, что оно просто реализует свое право выбирать поставщиков, и что ограничения и поведение Anthropic делают ее неприемлемым партнером для работы в сфере национальной безопасности.

Согласно судебному документу, конфликт обострился после того, как Anthropic отказалась изменить свою политику использования, которая ограничивает определенные применения, такие как разработка оружия и наблюдение. Представители ведомства заявили, что такие ограничения могут дать частной компании неправомерное влияние на военные операции и процесс принятия решений.

Правительство также утверждает, что роль Anthropic как разработчика и поддержчика своих систем ИИ создает неотъемлемые риски. Поскольку такие системы требуют постоянных обновлений и настроек, чиновники предупредили, что компания может «нарушить дизайн и/или функциональность» своих инструментов или изменить их производительность во время критически важных операций.

В своем заявлении компания Anthropic отметила: «Мы изучаем документ правительства и с нетерпением ждем возможности представить наш ответ суду. Как мы сообщали на прошлой неделе, обращение в суд не меняет нашей давней приверженности использованию ИИ для защиты национальной безопасности, но это необходимый шаг для защиты нашего бизнеса, наших клиентов и партнеров».

Anthropic утверждает, что действия правительства нарушают ее права, защищенные Первой поправкой к Конституции США, и гарантии надлежащей правовой процедуры. Однако правительство возражает, заявляя, что спор касается коммерческого поведения, а не защищенной свободы слова, и что агентства имеют право выбирать «тех, с кем они будут иметь дело» в рамках закупок.

В документе также отклоняются утверждения Anthropic о непоправимом ущербе; потенциальные деловые убытки названы «спекулятивными», а любые возможные убытки могут быть устранены посредством договорных средств.

Слушание по запросу Anthropic о предварительном судебном запрете назначено на 24 марта в федеральном суде Сан-Франциско.

Аркадий Зябликов
Аркадий Зябликов

Аркадий Зябликов - спортивный обозреватель с 15-летним стажем. Начинал карьеру в региональных СМИ Перми, освещая хоккейные матчи местной команды. Сегодня специализируется на аналитике российского и международного хоккея, регулярно берёт эксклюзивные интервью у звёзд КХЛ.

Популярные события в мире