Проверка frontier AI в ЕС упирается в доступ от OpenAI и Anthropic

AI Act уже даёт ЕС право запрашивать оценки GPAI-моделей, но практический доступ к frontier AI по-прежнему зависит от OpenAI и Anthropic.

Проверка frontier AI в ЕС: страница European Commission об искусственном интеллекте

Проверено 11 мая 2026 года. Проверка frontier AI в ЕС выглядит строже на бумаге, чем в реальной жизни. У Еврокомиссии уже есть AI Act, отдельный AI Office и право запрашивать информацию и проводить оценки моделей общего назначения, или GPAI. Но в тот момент, когда речь заходит о практическом доступе к самым чувствительным моделям, всё упирается в более прозаичную вещь: готовы ли сами OpenAI и Anthropic открыть доступ, и если да, то какой именно.

Именно это стало видно 11 мая. Представитель Комиссии Томас Ренье сказал Reuters, что OpenAI уже предлагает более кооперативную схему по новой кибермодели, тогда как с Anthropic у Комиссии были встречи, но до разговора о доступе к моделям стороны ещё не дошли. Это важный сдвиг в оптике. Новость не про общий пересказ закона и не про отдельный релиз кибермодели. Она про то, что европейское регулирование frontier AI сегодня всё ещё зависит не только от правовых полномочий, но и от доброй воли лабораторий.

Что именно сказала Комиссия 11 мая

По сообщению Reuters от 11 мая 2026 года, Еврокомиссия приветствовала готовность OpenAI предоставить доступ к своим новым киберфункциям. Формулировка здесь важна: речь не о том, что регулятор уже получил модель в своё распоряжение, а о том, что одна из лабораторий сама идёт навстречу и предлагает более открытый контур взаимодействия.

По Anthropic картина заметно осторожнее. Представитель Комиссии сказал, что с компанией уже прошло четыре или пять встреч, но обсуждений о возможном доступе к её моделям пока не было. То есть канал связи есть, контакты есть, но до самого чувствительного вопроса стороны ещё не дошли. Для текста про регулирование это и есть главная развилка: формальные полномочия у Брюсселя уже есть, но практический доступ к frontier-моделям по-прежнему не возникает автоматически.

Скриншот официальной страницы OpenAI Deployment Safety Hub с системной картой GPT-5.4 Thinking и контуром доверенного доступа
OpenAI уже строит отдельный доверительный контур доступа к более чувствительным кибервозможностям моделей. Источник: OpenAI Deployment Safety Hub.

Почему OpenAI и Anthropic сейчас выглядят по-разному

Разница между двумя компаниями появилась не на пустом месте. OpenAI с февраля и апреля последовательно строит линейку доверенного доступа для защитных киберсценариев, а 7 мая официально вывела GPT-5.5-Cyber в закрытое превью для проверенных защитников критической инфраструктуры. Даже в собственной терминологии OpenAI это не «открытая модель для всех», а многослойный режим доступа с разными уровнями свободы ответа и дополнительной проверкой пользователей. Мы уже разбирали эту логику отдельно в материале про ограниченный доступ OpenAI к кибермодели.

Anthropic, наоборот, с апреля держит Mythos Preview внутри селективного контура Project Glasswing. Reuters ещё 17 апреля передавал, что компания обсуждает с Еврокомиссией разные модели, включая кибермодели, которых в ЕС пока нет. Но одно дело обсуждать модель как тему соответствия правилам и другое — обсуждать реальный доступ к ней. На 11 мая Комиссия публично говорит именно второе: контакты идут, а до разговора о доступе к модели стороны пока не дошли. Фон этой закрытости мы отдельно разбирали в тексте про Project Glasswing и ограниченный контур Mythos.

Официальная обложка Anthropic Project Glasswing
Anthropic с самого начала подаёт Project Glasswing не как публичный релиз, а как ограниченный доступ к сильной кибермодели. Источник: Anthropic.

В этом месте легко ошибиться с выводом. Нельзя писать, что Anthropic уже отказала Еврокомиссии. Публично подтверждено более узкое утверждение: разговор идёт, но до конкретного обсуждения доступа к моделям он пока не дошёл. Для регулятора это всё равно плохая новость, потому что проверка frontier AI не любит длинные дипломатические паузы. Если возможности frontier-систем меняются быстро, отставание по доступу быстро превращается в отставание по пониманию риска.

У AI Office есть полномочия. Но это не то же самое, что доступ к живой модели

Самое слабое место в грубых пересказах этой истории — соблазн написать, будто у ЕС вообще нет рычагов. Это неверно. В официальном Q&A по GPAI-моделям AI Office прямо пишет, что надзор опирается на три блока полномочий: запрос информации по Article 91, оценки моделей по Article 92 и требование мер по снижению рисков по Article 93. Комиссия отдельно подчёркивает, что AI Office надзирает за самыми мощными GPAI-моделями. Базовый разбор этих полномочий у нас уже есть в материале про AI Act в ЕС.

Но из этого не следует, что регулятор по щелчку получает полный доступ к живой frontier-модели на раннем этапе. На практике между «полномочие существует» и «оценка действительно идёт» лежит длинный операционный слой: уведомления, рамка безопасности, формат доступа, коммерческая чувствительность, технические ограничения, готовность поставщика модели открыть API, системную карту или внутренний тестовый контур. Именно в этом зазоре и проявляется зависимость от самих лабораторий.

Показательно, что параллельно с этим у Комиссии есть ещё и добровольный кодекс для GPAI-моделей, который помогает компаниям показывать соблюдение AI Act. На странице этого кодекса среди подписантов уже перечислены и OpenAI, и Anthropic. Это полезно для общего контура регулирования, но само по себе не решает главную проблему новости. Подпись под кодексом не равна прямому доступу регулятора к самой модели, её более свободной версии или внутреннему тестовому контуру.

Почему эта история важна именно сейчас

Ещё год назад такую тему можно было бы отложить в правовой бэклог. Сейчас уже нельзя. После Mythos, GPT-5.5 и новых программ доверенного доступа спор сместился от абстрактного вопроса «нужны ли frontier-моделям особые защитные ограничения» к более жёсткому вопросу: кто и в какой момент получает к ним доступ первым. Если сильные кибервозможности проверяют только сами лаборатории, их партнёры и несколько избранных контрагентов, регулятор почти неизбежно начинает двигаться медленнее, чем рынок.

Для ЕС это особенно чувствительно, потому что европейская модель регулирования всегда делала ставку на формализацию обязанностей, документацию и обязательную процедуру. В случае frontier AI этого уже недостаточно. Регулятору мало знать, что поставщик модели подписал кодекс или прислал документы. Ему нужно понимать, как модель ведёт себя в живом контуре, где проходят реальные границы более свободного доступа и насколько быстро защитный инструмент может превратиться в инструмент двойного назначения.

Отсюда и более неприятный вывод. Если одна компания готова открывать доступ раньше, а другая пока держит разговор на уровне общих контактов, то регуляторная видимость в Европе начинает зависеть не только от текста закона, но и от частной стратегии конкретных американских лабораторий. Для сторонника жёсткого правового регулирования это почти антипатичный вывод. Но именно его сейчас подтверждает публичная линия Комиссии.

Вывод

История 11 мая показывает не провал AI Act, а его текущий практический предел. На бумаге Еврокомиссия и AI Office уже вооружены: можно запрашивать информацию, запускать оценки и требовать мер по снижению риска. Но в реальном мире проверка frontier AI в ЕС всё ещё зависит от того, насколько сами OpenAI и Anthropic готовы открывать доступ к чувствительным моделям и в каком режиме они это делают.

Именно поэтому следить сейчас нужно не только за новыми статьями закона или списком подписантов кодекса. Следить нужно за тем, кто реально даёт доступ, пригодный для полноценной проверки, когда это происходит и насколько этот доступ похож на живую модель, а не на аккуратно вычищенную витрину. В 2026 году это уже не техническая деталь, а главный нерв регулирования frontier AI.

Источники и дата проверки

Telegram-канал @toolarium