Протокол MRC OpenAI: как сеть, облака и энергия стали узким местом ИИ

OpenAI открыла протокол MRC для ИИ-кластеров. Главное здесь не только сеть: гонка за вычисления всё сильнее упирается в облака, оптику и энергетику.

Протокол MRC OpenAI и ИИ-инфраструктура: комплекс Colossus 1 в Мемфисе на фото Reuters

По состоянию на 7 мая 2026 года главный сигнал из нового инженерного поста OpenAI не в том, что компания показала ещё одну красивую внутреннюю технологию. Куда важнее другое: OpenAI официально открыла MRC, то есть Multipath Reliable Connection, и тем самым вслух признала, где теперь проходит следующее узкое место гонки за передовой ИИ. Не только в GPU, не только в мегаваттах и не только в стройке дата-центров. Всё чаще узкое место сидит в сети, отказоустойчивости, оптике и в том, как связать огромный кластер без простоев.

Это стоит проговорить сразу, чтобы не увести материал в неточный заголовок. OpenAI не выпустила свои чипы и не открыла весь сетевой стек дата-центра. По официальному посту речь идёт о сетевом протоколе для крупных AI-кластеров, который компания разработала вместе с AMD, Broadcom, Intel, Microsoft и NVIDIA и передала в Open Compute Project. Новостной крючок здесь называется MRC, а аналитический смысл новости в другом: когда кластеры уходят к 100 тысячам GPU и выше, архитектура сети начинает напрямую определять, сколько из купленных вычислительных мощностей вообще удаётся использовать.

На этом фоне MRC удобно читать не как отдельный инженерный релиз, а как часть большего сдвига. Мы уже разбирали, как OpenAI превысила цель в 10 ГВт AI-инфраструктуры в США. Новый пост показывает следующий слой той же истории: мало заранее собрать мощность, землю и питание. Нужно ещё построить сетевой контур, который не начнёт душить синхронное обучение в момент, когда кластер вырастает до масштаба передовых моделей.

Что именно открыла OpenAI

Официальное описание у OpenAI довольно конкретное. Компания пишет, что MRC встроен в новейшие сетевые интерфейсы на 800 Гбит/с и позволяет разбивать одну передачу на сотни путей, обходить отказы за микросекунды и держать более простой контур управления. Технически MRC расширяет RoCE, опирается на наработки Ultra Ethernet Consortium и использует source routing на базе SRv6 для очень больших AI-сетей.

Главная практическая вещь здесь такая: OpenAI больше не пытается выжать максимум из классической модели с одним маршрутом на передачу. В большом кластере с несколькими сетевыми плоскостями она начинает “распылять” пакеты одного переноса по множеству путей, чтобы меньше страдать от коллизий, локальных перегрузок и восстановлений после сбоя. Для обычного читателя это можно перевести проще: OpenAI ищет способ сделать так, чтобы дорогие GPU не ждали сеть.

Что подтверждено Деталь Почему это важно
Кто делал MRC OpenAI разрабатывала протокол вместе с AMD, Broadcom, Intel, Microsoft и NVIDIA Это не локальный эксперимент одной лаборатории, а кросс-вендорная попытка решить сетевую проблему масштаба передовых моделей
Где MRC уже работает OpenAI пишет, что протокол развёрнут на крупнейших суперкомпьютерах компании на NVIDIA GB200, включая площадку OCI в Abilene и суперкомпьютеры Microsoft Fairwater Речь идёт не об академической идее без внедрения, а о уже используемом контуре обучения моделей
Какой масштаб сети заявлен OpenAI утверждает, что подход с несколькими сетевыми плоскостями позволяет полностью связать около 131 000 GPU всего через два уровня коммутаторов вместо трёх или четырёх Сокращается число компонентов, отказов, энергопотребление и стоимость сетевой связности
Что именно открыто Спецификация MRC опубликована как вклад в Open Compute Project OpenAI подаёт MRC как инфраструктурный стандарт для экосистемы, а не как закрытый внутренний трюк

Почему узкое место уже не только в GPU

Самая сильная строка в посте OpenAI находится ближе к концу: по мере роста обучающих кластеров именно дизайн сети всё сильнее определяет, какая доля доступных вычислительных мощностей вообще может быть использована. Это важный разворот оптики. Последние полтора года рынок привык объяснять ИИ-инфраструктуру почти целиком через дефицит ускорителей, HBM и электроэнергии. OpenAI теперь фактически говорит: даже если вы достали GPU и подвели мощность, это ещё не гарантирует, что кластер будет ехать на полной скорости.

AMD в своём параллельном тексте формулирует ту же мысль ещё жёстче: по мере роста ИИ-систем сеть всё чаще напрямую определяет, какую долю вычислительных мощностей удаётся утилизировать. Для индустрии это неудобный, но полезный вывод. Гонка за ИИ всё меньше похожа на закупку «ещё большего числа чипов» и всё больше — на задачу о том, как собрать весь стек без провала в одном из невидимых слоёв.

Отсюда и новая важность соседних историй про цепочки поставок. Если сеть становится таким же критичным элементом, как ускорители, то резко дорожают не только GPU, но и всё, что помогает этим GPU работать как единый организм: оптическая связность, NIC, коммутаторы, сервисные контроллеры, силовая обвязка и контроль отказов. Мы уже видели этот сдвиг в материале о дефиците PMIC и BMC для AI-серверов: узкие места расползаются по всей стойке, а не живут только в одном дорогом ускорителе.

В этом смысле MRC хорошо дополняет недавние новости про расширение физического контура OpenAI. Если 10 ГВт — это разговор о мощности, площадках и политической способности резервировать вычислительные мощности заранее, то MRC — это разговор о том, как не потерять эффективность уже внутри собранного кластера.

Почему в этой истории важны Colossus 1, Google Cloud и Corning

Если смотреть только на OpenAI, можно ошибочно решить, что речь идёт об одной инженерной оптимизации. Но в тот же день рынок дал ещё три сильных сигнала. Первый пришёл со стороны xAI. В сообщении на сайте x.ai сделка оформлена от имени SpaceXAI: Anthropic получает доступ к Colossus 1 — одному из крупнейших AI-суперкомпьютеров, где заявлены более 220 000 GPU NVIDIA, включая H100, H200 и GB200. Reuters отдельно пишет, что этот контур должен дать Anthropic 300 мегаватт новой мощности в течение месяца.

Здание SpaceX на фото Reuters из материала о сделке Anthropic и SpaceX
Reuters использовала фото штаб-квартиры SpaceX в материале о новой вычислительной сделке с Anthropic. Для рынка это сигнал не только о мощности Colossus 1, но и о том, что крупные AI-лабы начинают забирать целые инфраструктурные контуры. Источник: Reuters via CNA.

Но картина была бы неполной без облаков. Ещё 6 апреля Anthropic официально объявила о новом соглашении с Google и Broadcom на многогигаваттные мощности TPU, которые должны начать вводиться с 2027 года через Google Cloud. Это важный сигнал того же класса: frontier-лабы теперь резервируют не только физические кластеры, но и годы будущей облачной мощности.

Третий сигнал пришёл от NVIDIA и Corning. В официальном релизе компании говорят уже не про протокол, а про физическую реальность цепочек поставок: Corning увеличит американские мощности по оптической связности в 10 раз, расширит производство оптоволокна в США более чем на 50% и построит три новые производственные площадки в Северной Каролине и Техасе. Это очень наглядная иллюстрация того, что аппетит индустрии ИИ теперь упирается не только в GPU, но и в фотонику, волокно и весь производственный хвост вокруг сетевой связности.

Официальный визуал партнёрства NVIDIA и Corning для AI-инфраструктуры
Официальный визуал партнёрства NVIDIA и Corning из релиза о расширении американского производства оптики для AI-инфраструктуры. Источник: Corning.
Сигнал Что произошло Что это говорит о рынке
MRC у OpenAI Лаборатория открывает сетевой протокол для устойчивой работы очень больших ИИ-кластеров Надёжная сеть становится таким же стратегическим активом, как сами ускорители
Colossus 1 для Anthropic xAI подтверждает доступ Anthropic к кластеру на 220 000+ GPU; Reuters добавляет ориентир в 300 МВт новой мощности Спрос на вычислительные мощности уже настолько велик, что крупные лаборатории забирают целые суперкомпьютерные контуры
Google Cloud + TPU у Anthropic Anthropic объявила о соглашении с Google и Broadcom на многогигаваттные мощности TPU с вводом начиная с 2027 года Облака перестают быть просто каналом дистрибуции ИИ и становятся полем многолетнего резервирования вычислительных мощностей
Партнёрство NVIDIA и Corning Corning масштабирует оптическое производство под AI-фабрики: рост мощностей по оптической связности в 10 раз, рост выпуска волокна более чем на 50% и три новых завода Узкое место уходит в оптику и производство, а не живёт только в чипах

Вместе эти новости складываются в одну картину. Ещё год назад рынок в основном спорил о моделях, бенчмарках и количестве ускорителей. Сейчас лидеры ИИ всё чаще конкурируют сразу по нескольким связанным контурам: кто заранее выкупает облачную мощность и физические кластеры, кто раньше собирает сеть масштаба суперкомпьютера, кто удерживает оптическую цепочку поставок и кто может быстрее ввести вычислительные мощности в работу без слишком больших простоев.

Что это меняет для архитектуры ИИ-кластеров

Для инженеров и инфраструктурных команд из этой новости следует довольно трезвый вывод. На масштабе передовых моделей уже недостаточно смотреть на пиковую пропускную способность или на красивую цифру “сколько GPU в кластере”. Важно, насколько сеть переживает отказ, как быстро обходит сбой, сколько уровней коммутаторов приходится держать и какой объём лишней сложности вы вносите в контур управления ради роста масштаба.

Для бизнеса вывод другой, но не менее неприятный. Чем больше ИИ-сервисы зависят от длинных агентных и программирующих нагрузок, тем выше цена сетевой неэффективности. В обычном пользовательском чате потерянные проценты утилизации неприятны. В огромном синхронном обучающем кластере или при большой нагрузке на вывод они превращаются в сожжённые капитальные расходы. Поэтому сеть перестаёт быть фоновой инженерной темой и становится объектом стратегических инвестиций.

Отсюда же растёт интерес к кастомным стекам развёртывания. Мы уже видели это по тому, как Google начала выводить TPU в дата-центры клиентов. Рынок движется к модели, где победитель предлагает не просто модель и не просто чип, а связанный инфраструктурный пакет: вычислительные мощности, сеть, управление, цепочку поставок и предсказуемое развёртывание.

MRC в этой логике важен ещё и как политический сигнал экосистеме. OpenAI показывает, что готова открывать часть сетевой инфраструктурной логики через OCP, если это помогает ускорить общую эволюцию AI-кластеров. Это не значит, что рынок внезапно станет полностью открытым. Но это значит, что вокруг передового ИИ начинается борьба не только за закрытые модели, но и за то, чьи инженерные стандарты станут общепринятыми на уровне кластера.

Вывод

Протокол MRC OpenAI сам по себе не переворачивает рынок ИИ за один день. Но он точно показывает, где сейчас проходит следующая линия борьбы. На больших кластерах уже недостаточно купить много GPU и найти мегаватты. Нужно ещё добиться того, чтобы все эти вычислительные мощности не терялись в перегрузке сети, многоступенчатой архитектуре, медленном восстановлении после сбоев и дефиците оптической связности.

Поэтому новость про MRC стоит читать не как узкий релиз для сетевых инженеров. Это короткое и довольно честное признание всей индустрии: гонка за ИИ-инфраструктуру уходит в сети, облака и цепочки поставок. Кто лучше решит эту задачу, тот и получит преимущество в следующем цикле передовых моделей, агентных сервисов и AI-фабрик.

Источники и дата проверки

Факты в статье проверены 7 мая 2026 года по официальным и первичным источникам: OpenAI — Supercomputer networking to accelerate large scale AI training, AMD — Advances AI Networking at Scale with MRC, xAI — New Compute Partnership with Anthropic, Anthropic — expands partnership with Google and Broadcom for multiple gigawatts of next-generation compute, Corning — NVIDIA and Corning Announce Long-Term Partnership, а также по публикации Reuters о сделке Anthropic и SpaceX через Investing.

Telegram-канал @toolarium