ML-дайджест: скандал Cursor, NVIDIA Dynamo 1.0 и SambaNova SN50
Cursor скрыл китайскую модель Kimi 2.5, NVIDIA выпустила Dynamo 1.0 для инференса, SambaNova показала чип SN50 RDU. Три главных события марта 2026 в AI-инфраструктуре.
В марте 2026 года три события задали тон в AI-инфраструктуре. Cursor попался на использовании китайской модели Kimi 2.5 и пытался это скрыть. NVIDIA выпустила Dynamo 1.0, open-source фреймворк для инференса с 7-кратным приростом на Blackwell. А стартап SambaNova показал чип SN50 RDU, который, по его данным, обгоняет NVIDIA B200 в 5 раз при 20 кВт энергопотребления.
Cursor Composer 2: «frontier-модель» оказалась китайской Kimi 2.5
19 марта Cursor запустил Composer 2 и представил его как модель «frontier-уровня» для кодирования. В блоге компании не было ни слова о том, на чём построена модель.

Разоблачение произошло в тот же день. Разработчик под ником Fynn проанализировал API-вызовы и нашёл в ответах внутренний идентификатор kimi-k2p5-rl-0317-s515-fast. Composer 2 оказался дообученной версией Kimi 2.5, open-source модели китайской компании Moonshot AI (инвесторы: Alibaba, HongShan).
Вице-президент Cursor Ли Робинсон признал: Composer 2 построен на open-source базе, но «лишь четверть вычислений приходится на базовую модель, остальное — наше обучение». Сооснователь Аман Сангер назвал отсутствие упоминания Kimi в анонсе «упущением» и пообещал исправить ситуацию.
С лицензией всё в порядке: Moonshot AI подтвердила, что партнёрство через Fireworks AI было согласовано. Вопрос в другом. Лицензия Kimi 2.5 требует указания авторства для продуктов с более чем 1 млн активных пользователей в месяц или выручкой свыше $20 млн. У Cursor оценка в $29,3 млрд и $2 млрд годового дохода, но в маркетинговых материалах Moonshot AI не фигурировала.
Пользователи, которые платят за AI-кодер, ждут прозрачности. Скрытая модельная база подрывает доверие, а для стартапа с такой оценкой репутационные потери могут стоить дороже любой лицензии. Подробнее о Cursor и его конкурентах мы писали ранее.
NVIDIA Dynamo 1.0: open-source «ОС для AI-фабрик»
16 марта на GTC 2026 NVIDIA представила Dynamo 1.0, первую стабильную версию open-source фреймворка для масштабного инференса LLM.
Главная цифра: 7-кратный прирост пропускной способности на одну GPU при запуске DeepSeek R1 на архитектуре Blackwell. Данные подтверждены независимым бенчмарком InferenceX от SemiAnalysis.

Dynamo решает конкретную проблему. Монолитный сервер для LLM не может эффективно обрабатывать prefill (вычислительно тяжёлый этап) и decode (ограниченный памятью) на одном GPU. Фреймворк разделяет эти стадии на независимые сервисы и масштабирует каждый отдельно.
Ключевые компоненты:
- KV Cache Router с «агентскими подсказками», который анализирует задержки и ожидаемую длину ответа, направляя запросы к GPU с релевантным кешем
- KV Block Manager (KVBM) для многоуровневого кеширования: GPU → CPU → SSD → S3
- Поддержка SGLang, TensorRT-LLM, vLLM, LangChain и llm-d
- Интеграция с NVIDIA NIXL для быстрой передачи данных между GPU
Среди первых пользователей: AWS, Azure, Google Cloud, OCI, CoreWeave, Cursor, Perplexity, ByteDance и PayPal. Дженсен Хуан назвал Dynamo «первой операционной системой для AI-фабрик». Для тех, кто работает с AI-агентами, Dynamo особенно интересен: KV Cache Router умеет приоритизировать сложные многошаговые сессии.
SambaNova SN50 RDU: чип на Dataflow-архитектуре против GPU
26 февраля SambaNova представила SN50 RDU, пятое поколение процессоров с архитектурой Dataflow, заточенных под инференс AI-агентов.

Заявленные характеристики на модели Llama 3.3 70B (в сравнении с NVIDIA Blackwell B200):
- Скорость генерации: в 5 раз выше
- Пропускная способность: в 3 раза больше
- Совокупная стоимость владения (TCO): в 8 раз ниже на модели GPT-OSS-120B
- Энергопотребление: 20 кВт на стойку при воздушном охлаждении
Технически SN50 построен на 3-нм техпроцессе с двумя чиплетами. Тактовая частота выросла на 25% по сравнению с предыдущим поколением, до 2,35 ГГц. Каждый чип содержит 432 МБ встроенной SRAM, 64 ГБ HBM2E и до 2 ТБ DDR5. Межчиповая связь обеспечивает 2,2 ТБ/с.
Dataflow-архитектура устроена иначе, чем GPU: компилятор выстраивает граф модели как кратчайший путь для данных, убирая лишние обращения к памяти. Это снижает задержки и энергопотребление, но работает только для инференса.
Стойка SambaRack SN50 вмещает 16 чипов, а кластеры масштабируются до 256 ускорителей. Максимальный размер модели: до 10 трлн параметров с контекстом до 10 млн токенов.
Поставки начнутся во второй половине 2026 года. SoftBank станет первым заказчиком для дата-центров в Японии. Стартап привлёк $350 млн в раунде Series E с участием Intel.
Три тренда марта
Open-source модели из Китая стали фундаментом для западных AI-продуктов. Moonshot AI, DeepSeek и другие компании создают модели, на которых строят бизнес стартапы с миллиардными оценками. История с Cursor показала, что замалчивать такие зависимости долго не получится.
Dynamo 1.0 закрепил позицию NVIDIA как поставщика полного стека: железо плюс софт для инференса. Все крупные облачные провайдеры уже внедрили фреймворк, и он стал стандартом де-факто.
SambaNova SN50 остаётся самой амбициозной заявкой на конкуренцию с NVIDIA в сегменте инференса за последние годы. Но до поставок ещё полгода, и независимых бенчмарков пока нет. Цифры выглядят впечатляюще на слайдах, вопрос в том, подтвердятся ли они на стойках клиентов.