Google разрешает Пентагону использовать ИИ для любой законной цели

Google расширила сделку с Пентагоном и разрешила использовать свои ИИ-модели для любой законной государственной цели. Разбираем, где заканчиваются оговорки и начинается реальный разворот политики.

Официальная обложка Gemini for Government от Google Public Sector

Google 28 апреля 2026 года согласовала с Пентагоном использование своих ИИ-моделей для any lawful government purpose в секретном контуре. Об этом сначала сообщил The Information, а затем подтвердил Reuters через комментарий Google. Самый важный сдвиг здесь не в том, что Google вообще работает с военными. Новость в том, что компания принимает гораздо более широкую контрактную формулу: если цель признана законной, последнее слово остаётся у государства, а не у вендора.

По состоянию на 28 апреля 2026 года полный текст соглашения не опубликован. Но Reuters приводит две ключевые детали. Во-первых, в договоре сказано, что система не предназначена для массовой слежки внутри США и для автономного оружия без должного человеческого контроля. Во-вторых, этот же договор не даёт Google права контролировать или ветировать законные оперативные решения правительства. Для рынка военного ИИ именно эта связка и важнее любого пресс-релиза.

Дата актуальности материала: 28 апреля 2026 года. Все быстро меняющиеся данные и формулировки сверены по Reuters, официальным страницам Google и OpenAI на дату публикации черновика.

Что именно произошло 28 апреля 2026 года

Reuters пишет, что речь идёт не о совсем новом заходе Google в оборонный сектор, а о поправке к уже существующему контракту с Министерством обороны США. Поправка открывает Пентагону доступ к ИИ-моделям Google для любой законной государственной цели в секретной среде. Представитель Google при этом заявил Reuters, что компания поддерживает государственные агентства как в секретных, так и в несекретных проектах и считает доступ к коммерческим моделям через инфраструктуру Google ответственным способом поддержки национальной безопасности.

Это важная оговорка. Публично Google по-прежнему не говорит, что строит автономное оружие или одобряет массовую внутреннюю слежку. Но и старой логики, в которой у компании были жёсткие публичные запреты и право сказать нет определённому классу применений, здесь уже не видно. Если формула договора действительно звучит как any lawful government purpose, то центр тяжести смещается с корпоративной этики на государственное определение того, что считается допустимым применением.

Reuters отдельно напоминает, что секретные сети в принципе используются для чувствительных задач, включая планирование операций и наведение оружия. Это не значит, что Google уже объявила применение своих моделей именно для таких сценариев. Но это показывает, в какой среде теперь будет работать её контрактная логика.

Почему это не первый заход Google в контур ИИ Пентагона

Если смотреть только на заголовки 28 апреля, можно решить, что Google внезапно ворвалась в оборонный ИИ. По официальным материалам самой компании это не так. Ещё 6 января 2026 года Google Public Sector писала, что CDAO выбрал Gemini for Government как первый корпоративный ИИ-сервис, развёрнутый на GenAI.mil для трёх миллионов гражданских и военных сотрудников. Тогда Google подчёркивала другой угол: несекретная работа, суммаризация документов, черновики писем и административная автоматизация.

10 марта 2026 года Google пошла дальше и запустила внутри GenAI.mil инструмент Agent Designer. Он позволяет сотрудникам собирать собственных ИИ-агентов для несекретных задач без программирования: от подготовки служебных вводных до проектного планирования и служебных заявок. То есть до апрельской новости Google уже стояла внутри контура ИИ Пентагона, просто в более безопасном, административном и открыто описанном слое.

Скриншот статьи Google Cloud от 10 марта 2026 года про Agent Designer для несекретной работы на GenAI.mil
Google Public Sector ещё 10 марта 2026 года описывала Agent Designer на GenAI.mil как инструмент для несекретной работы. Источник: Google Cloud

Именно поэтому новость 28 апреля важна не как первый контакт Google с Пентагоном, а как переход от административных сценариев к развёртыванию в секретном контуре и к более широкой формулировке допустимого использования. До этого Google рассказывала про помощь чиновникам и военным в рутинной работе. Теперь в центре обсуждения уже не удобство, а границы контроля над применением модели.

Почему формула lawful use важнее любых оговорок

На бумаге в договоре есть предохранители. Reuters сообщает, что система не предназначена для массовой внутренней слежки и для автономного оружия без человеческого контроля. Но та же публикация добавляет: соглашение не даёт Google права контролировать или ветировать законные оперативные решения правительства. Это и есть ключевой разворот.

Пока компания сама решает, какие классы использования она вообще не допускает, у неё есть реальный рычаг. Когда в договор вшивается широкая формула lawful use, а право последней интерпретации остаётся у государства, рычаг становится заметно слабее. Предохранители превращаются из жёсткого запрета в набор рамок, которые работают только пока заказчик сам считает их обязательными.

На фоне этого особенно показателен контраст с OpenAI. 28 февраля 2026 года OpenAI официально опубликовала собственное соглашение с Пентагоном и отдельно перечислила три красные линии: никакой массовой внутренней слежки, никакого наведения автономного оружия и никаких автоматических решений в критически важных ситуациях. Более того, OpenAI публично заявила, что сохраняет контроль над safety stack, оставляет своих инженеров в контуре и может расторгнуть контракт при нарушении условий. У Google в публичном поле пока нет сопоставимого уровня детализации. Есть только общая позиция Reuters: lawful use, оговорки про surveillance и autonomous weapons и отсутствие права вето.

Это не делает контракт Google автоматически более опасным, чем контракт OpenAI. Но делает его менее прозрачным. А для такой темы именно прозрачность и есть главная валюта доверия.

Как это связано с AI Principles Google после 4 февраля 2025 года

Чтобы понять политический смысл сделки, надо вернуться на год назад. Историческая запись AI at Google: our principles до сих пор содержит старую, жёсткую формулировку: Google не будет разрабатывать ИИ для оружия, для слежки, нарушающей международные нормы, и для технологий, противоречащих международному праву и правам человека. В той же записи есть обновление от 4 февраля 2025 года: компания сообщает, что пересмотрела принципы и просит смотреть актуальную версию на AI.Google.

Актуальная страница Google AI Principles теперь говорит иначе. Вместо списка конкретных запретных категорий там стоят более общие обязательства: human oversight, due diligence, безопасность, защита приватности, соответствие международному праву и правам человека. Это не одно и то же. Первая версия задаёт красные линии по классам применения. Вторая говорит скорее о процессе управления риском.

Официальный визуал страницы Google AI, где опубликована актуальная версия AI Principles
Обновлённые AI Principles Google теперь опубликованы на отдельной странице Google AI, а не только в старой записи с жёсткими запретами. Источник: Google AI

Сама по себе такая смена языка ещё не доказывает, что Google готова на любой военный сценарий. Но в паре с контрактом про lawful government purpose она перестаёт выглядеть чисто косметической. Получается понятная цепочка: сначала компания ушла от публичного списка запретов, потом согласилась работать в модели, где lawful use определяет государство, а не вендор.

Что происходит внутри самой Google

Внутри компании этот разворот заметили не только журналисты. 27 апреля 2026 года CBS News написала, что сотни сотрудников Google потребовали от Сундара Пичаи не отдавать ИИ компании для секретных военных задач. В открытом письме они прямо назвали lethal autonomous weapons и mass surveillance примерами сценариев, которых боятся.

Это важно по двум причинам. Во-первых, речь идёт не о внешней критике со стороны активистов, а о внутреннем конфликте внутри команды, которая эти системы строит. Во-вторых, тайминг почти идеален: письмо приходит 27 апреля, а уже 28 апреля Reuters сообщает о сделке. Для сотрудников это выглядит как проигранный спор не о далёком будущем ИИ, а о конкретной контрактной формуле, которая фиксируется прямо сейчас.

Поэтому сводить реакцию работников к абстрактной «этической тревоге» было бы ошибкой. Они спорят не только о принципах, но и о механике контроля: кто именно в последний момент говорит «да» или «нет», если модель оказывается внутри военной инфраструктуры.

Что это меняет для гонки между Google, OpenAI, xAI и Anthropic

Для рынка это ещё один сигнал, что Pentagon AI всё сильнее формирует правила игры для крупнейших ИИ-лабораторий. Google теперь выглядит ближе к линии OpenAI и xAI, которые уже согласились работать с развёртыванием в секретном контуре, чем к линии Anthropic. Напомню: 26 февраля 2026 года Dario Amodei публично заявил, что Anthropic не может in good conscience согласиться на требования Пентагона по более широкому использованию Claude.

На практике это делит рынок не на «военных» и «мирных», а на две куда более важные группы. Первая готова заходить в государственный сектор на условиях lawful use и спорить уже о конкретных слоях защиты. Вторая пытается удержать более жёсткие внешние красные линии даже ценой конфликта с заказчиком. Разницу между этими подходами Toolarium уже разбирал в материалах про спор Anthropic с Пентагоном, про судебный запрет на давление на Anthropic и про раскол между Anthropic и OpenAI.

Если смотреть шире, главный сдвиг здесь даже не в военных бюджетах. Главный сдвиг в том, что политика вокруг ИИ всё чаще пишется не манифестами на сайтах компаний, а формулировками в контрактах. И в этом смысле новость про Google важнее очередного спора в соцсетях о том, этично ли сотрудничать с армией. Контрактное слово lawful уже само по себе становится инструментом регулирования.

Итог

Новость 28 апреля 2026 года не доказывает, что Google завтра начнёт делать автономное оружие. Но она довольно чётко показывает другое: компания готова работать в модели, где государство получает доступ к её ИИ для любой законной цели, а у самой Google нет права ветировать законные оперативные решения.

После январского запуска Gemini for Government на GenAI.mil и мартовского Agent Designer это выглядит не случайной уступкой, а последовательным движением в сторону более тесной интеграции с оборонным контуром США. Вопрос теперь не в том, работает ли Google с Пентагоном. Вопрос в том, сколько реального контроля у неё остаётся после того, как слова про human oversight встречаются со словами any lawful government purpose.

Читайте также

Источники

Telegram-канал @toolarium