безопасность AI-кибермодели: Mythos, GPT-5.4-Cyber и новая гонка защиты AI-кибермодели стали новым полигоном: AISI проверила Mythos, OpenAI открывает GPT-5.4-Cyber по доверенному доступу, а бюджет токенов меняет защиту.
AI-агенты Бенчмарки ИИ-агентов ломаются: почему 100% не значит способность Berkeley RDI показала, что популярные бенчмарки ИИ-агентов можно обходить почти до идеальных оценок. Объясняем, как читать leaderboard после этого.
Anthropic Anthropic Mythos и банки: почему США смотрят на тесты Anthropic Mythos и банки: почему власти США могут подталкивать финансовый сектор к тестам модели и где начинается конфликт с комплаенсом.
безопасность Открытые модели ИИ в кибербезопасности: урок Mythos Aisle показала, что малые open-weight модели воспроизводят часть анализа Mythos на изолированном коде. Разбираем, где теперь moat в AI-cybersecurity.
Anthropic Claude Mythos и кибербезопасность: где реальный риск Mythos Preview показал 72,4% успеха в тесте Firefox JS shell, но реальный вывод тоньше: защита AI-агентов должна стать zero-trust.
OpenAI OpenAI ограничивает доступ к модели для кибербезопасности OpenAI ещё в декабре описала доверенный доступ к кибермоделям. После Project Glasswing этот подход уже выглядит новой нормой рынка.
Open Source safetensors в PyTorch Foundation: почему это важно для безопасности моделей safetensors стал проектом PyTorch Foundation. Это сигнал, что безопасная поставка весов моделей становится базовым требованием для open-source ИИ.