Уоррен назвала блокировку Anthropic «местью» Пентагона — суд решит судьбу ИИ-контрактов 24 марта

Сенатор Уоррен назвала блокировку Anthropic «местью» Пентагона за отказ снять ограничения Claude. 24 марта суд Сан-Франциско решит судьбу ИИ-контрактов.

Уоррен назвала блокировку Anthropic «местью» Пентагона — суд решит судьбу ИИ-контрактов 24 марта
Сенатор Элизабет Уоррен и глава Пентагона Пит Хегсет. Фото: NBC News

Anthropic получает всё больше поддержки в противостоянии с Министерством обороны США. Сенатор Элизабет Уоррен (демократы, Массачусетс) написала открытое письмо главе Пентагона Питу Хегсету, назвав блокировку создателя Claude «местью» за отказ снять ограничения на военное применение ИИ.

Письмо Уоррен: давление Пентагона на ИИ-компании

По данным CNBC, сенатор Уоррен прямо обвинила Министерство обороны в том, что оно пытается «силой заставить американские компании предоставить Пентагону инструменты для слежки за гражданами и применения автономного оружия без достаточных гарантий безопасности».

«Блокировка Anthropic выглядит как месть», — написала Уоррен, добавив, что у Пентагона был более простой выход — просто расторгнуть контракт с компанией, а не присваивать ей статус «риска для цепочки поставок».

Этот статус, обычно применяемый к иностранным противникам, теперь означает: любая компания или ведомство, работающее с Пентагоном, обязаны подтвердить, что не используют продукты Anthropic. Фактически это отрезает Anthropic от всего государственного сектора США.

Из-за чего разгорелся конфликт

Конфликт начался после того, как Anthropic отказалась разрешить Пентагону использовать свои модели для массовой слежки за американскими гражданами и в системах летального автономного оружия без участия человека в процессе принятия решений. Это не противоречие с законом — это позиция компании по этике ИИ.

Пентагон занял противоположную позицию: частная компания не должна диктовать военным, как использовать технологии. Вскоре после этого Anthropic получила статус «риска для цепочки поставок».

В ответ Anthropic подала иск против Министерства обороны, заявив о нарушении Первой поправки: компанию наказывают за высказанную позицию, а не за бизнес-решение.

Anthropic не одна

Уоррен — далеко не единственный голос в защиту Anthropic. Сотрудники и юридические службы технологических гигантов — OpenAI, Google и Microsoft — подали amicus curiae («дружественные суду») заявления в поддержку Anthropic. Правозащитные организации также осудили прецедент: если Пентагон может заблокировать американскую компанию за её взгляды, это угроза для всей индустрии.

Параллельно Уоррен направила письмо генеральному директору OpenAI Сэму Альтману с требованием раскрыть детали соглашения компании с Пентагоном — оно было заключено буквально на следующий день после занесения Anthropic в чёрный список. Совпадение выглядит неслучайным.

24 марта: суд решит ключевой вопрос

Письмо сенатора пришло за день до слушания в федеральном суде Сан-Франциско. 24 марта судья Рита Лин рассмотрит ходатайство Anthropic о временном запрете — компания просит сохранить статус-кво до рассмотрения дела по существу.

На прошлой неделе Anthropic подала в суд два заявления, в которых утверждает: аргументы правительства основаны на технических недоразумениях и претензиях, которые ни разу не поднимались в ходе переговоров с Пентагоном.

Позиция Министерства обороны остаётся прежней: отказ Anthropic разрешить «все законные военные применения» — это коммерческое решение, а не защищённая речь. Блокировка, по версии Пентагона, — «рутинное решение в области национальной безопасности», а не наказание.

Что поставлено на кон

Дело Anthropic vs. DOD выходит далеко за рамки одной компании. Если суд встанет на сторону Пентагона, это создаст прецедент: военное ведомство получит рычаг давления на любую ИИ-компанию, которая откажется убирать ограничения своих моделей по требованию государства.

Если победит Anthropic — это подтвердит право разработчиков ИИ устанавливать правила использования своих технологий даже для военных заказчиков. Для понимания масштаба: именно это право лежит в основе всей современной дискуссии о регулировании ИИ — от европейского AI Act до американских стандартов NIST.

Исход слушания 24 марта — первый серьёзный тест того, насколько далеко может зайти правительство в управлении коммерческими ИИ-системами.

Anthropic и Министерство обороны США не ответили на запросы о комментариях.

Читайте также: ИИ на войне: бойкот ChatGPT, блокировка Anthropic и раскол Кремниевой долины

Telegram-канал @toolarium