безопасность AI-кибермодели: Mythos, GPT-5.4-Cyber и новая гонка защиты AI-кибермодели стали новым полигоном: AISI проверила Mythos, OpenAI открывает GPT-5.4-Cyber по доверенному доступу, а бюджет токенов меняет защиту.
Anthropic Anthropic Mythos и банки: почему США смотрят на тесты Anthropic Mythos и банки: почему власти США могут подталкивать финансовый сектор к тестам модели и где начинается конфликт с комплаенсом.
безопасность Открытые модели ИИ в кибербезопасности: урок Mythos Aisle показала, что малые open-weight модели воспроизводят часть анализа Mythos на изолированном коде. Разбираем, где теперь moat в AI-cybersecurity.
Anthropic Anthropic Claude: от стартапа по безопасности ИИ к лидеру рынка История Anthropic: как команда выходцев из OpenAI создала Claude и сделала безопасность ИИ конкурентным преимуществом.
AI-агенты Anthropic и OpenClaw: что значит блокировка создателя для AI-агентов Anthropic сначала ограничила создателя OpenClaw, затем восстановила доступ. Новость показывает, как модельные провайдеры начинают контролировать сторонние агентные клиенты.
Anthropic Claude Mythos и кибербезопасность: где реальный риск Mythos Preview показал 72,4% успеха в тесте Firefox JS shell, но реальный вывод тоньше: защита AI-агентов должна стать zero-trust.
Anthropic Anthropic Project Glasswing: почему Mythos держат в закрытом доступе Anthropic оставила Mythos внутри Project Glasswing и не выпустила модель в паблик. Разбираем причины и последствия для AI-безопасности.