Суд встал на сторону Anthropic: Пентагону запретили наказывать компанию за отказ вооружать Claude
Федеральный суд Калифорнии запретил Пентагону наказывать Anthropic за отказ снять ограничения на военное использование Claude.
Федеральный суд Калифорнии вынес предварительный запрет против Пентагона в деле Anthropic. Судья Рита Лин постановила: занесение компании в список угроз цепочки поставок за публичную критику военных контрактов — незаконная месть, нарушающая Первую поправку.
Что произошло
Судья Рита Лин из Северного округа Калифорнии удовлетворила запрос Anthropic о предварительном запрете (preliminary injunction). Запрет вступит в силу через семь дней и будет действовать до вынесения окончательного решения, на которое может уйти несколько недель или месяцев.
«Документы Министерства обороны показывают, что Anthropic получила статус угрозы цепочки поставок из-за её "враждебной манеры поведения через прессу"», — написала судья Лин в решении. — «Наказание Anthropic за привлечение общественного внимания к позиции правительства по контрактам — классическая незаконная месть за реализацию прав по Первой поправке».
Предыстория конфликта
Всё началось 9 января, когда министр обороны Пит Хегсет подписал меморандум. Документ требовал в течение 180 дней включить формулировку «любое законное использование» во все контракты на закупку ИИ-сервисов. Это касалось и действующих контрактов с Anthropic, OpenAI, xAI и Google.
Для Anthropic это означало отказ от двух «красных линий», которые компания обозначила с самого начала: Claude не должен использоваться для автономного летального оружия (системы, принимающие решение об уничтожении целей без участия человека) и массовой внутренней слежки.
Недели переговоров между Anthropic и Пентагоном ни к чему не привели. После чего последовала цепочка событий, описанная в нашем предыдущем материале: оскорбления в соцсетях, присвоение статуса «угрозы цепочки поставок», конкуренты, поспешившие перехватить военные контракты, и судебный иск.

Что сказала судья на слушании
На слушании судья Лин задала обеим сторонам ряд вопросов, опубликованных накануне. Она обрисовала суть спора так: «Anthropic говорит, что их продукт Claude небезопасен для автономного летального оружия и массовой слежки. Если правительство хочет использовать их технологию, оно должно согласиться не применять её в этих целях. Министерство обороны говорит, что военные командиры сами решают, как использовать ИИ».
При этом Лин уточнила, что разрешать этот спор не её задача: «Министерство обороны решает, какой ИИ-продукт покупать. Оно вольно перестать использовать Claude и найти более покладистого поставщика. Вопрос в том, нарушило ли правительство закон, когда пошло дальше этого».
Досталось Пентагону и за пост Хегсета в X (бывший Twitter), который запрещал всем подрядчикам вести «любую коммерческую деятельность с Anthropic». «Вы стоите здесь и говорите: "Мы это написали, но не совсем это имели в виду"», — заметила судья.
Лин также процитировала один из сопроводительных документов (amicus brief), где действия Пентагона назвали «attempted corporate murder», то есть «попыткой корпоративного убийства». «Не знаю, "убийство" ли это, но это похоже на попытку искалечить Anthropic», — сказала она.
Финансовый ущерб
Согласно судебным документам Anthropic, после присвоения статуса «угрозы» к компании обратились десятки партнёров — за разъяснениями и с вопросами о праве расторгнуть контракты. Потенциальные потери оцениваются в суммы от сотен миллионов до нескольких миллиардов долларов.
На вопрос судьи, будут ли военные подрядчики наказаны за использование продуктов Anthropic в работе, не связанной с Министерством обороны, представитель Пентагона ответил утвердительно. Судья уточнила: «Допустим, я военный подрядчик. Я поставляю армии туалетную бумагу, а не IT. Меня уволят за использование Anthropic?» Представитель Пентагона: «Для работы, не связанной с МО, — нет». Но на вопрос о подрядчике, предоставляющем IT-услуги (но не для систем нацбезопасности), конкретного ответа не последовало.
Аргумент Пентагона
Министерство обороны заявило в судебных документах, что Anthropic теоретически может «попытаться отключить свою технологию или упреждающе изменить поведение модели до или во время боевых операций», если сочтёт, что военные нарушают красные линии. Пентагон назвал это «неприемлемым риском для национальной безопасности».
Судья потребовала уточнить: «Какие доказательства в деле показывают, что у Anthropic сохранялся постоянный доступ или контроль над Claude после передачи его правительству, такой, чтобы компания могла совершать подобные акты саботажа?»
Реакция Anthropic
Пресс-секретарь Anthropic Даниэль Коэн: «Мы благодарны суду за оперативность и рады, что суд согласен: Anthropic, скорее всего, выиграет по существу. Хотя это дело было необходимо для защиты Anthropic, наших клиентов и партнёров, мы по-прежнему сосредоточены на продуктивной работе с правительством».
Что дальше
Предварительный запрет вступит в силу через семь дней. Окончательное решение по делу может занять несколько недель или месяцев. До тех пор Anthropic не может быть наказана за отказ убрать ограничения на использование Claude в военных целях.
Это первый известный случай, когда американская компания получила статус «угрозы цепочки поставок» — обозначение, обычно зарезервированное для иностранных компаний, связанных с противниками США. Прецедент важен: он покажет, может ли несогласие с администрацией стать основанием для экономических репрессий против бизнеса.
Читайте также:
- ИИ идёт на войну: Anthropic против Пентагона, протесты и 1000 целей за сутки — полная хронология конфликта
- Уоррен назвала блокировку Anthropic «местью» Пентагона — политическая реакция перед слушанием 24 марта