OpenAI Advanced Account Security для ChatGPT и Codex
OpenAI запустила Advanced Account Security для ChatGPT и Codex. Разбираем passkeys, YubiKey, жёсткое восстановление и связь с Trusted Access for Cyber.
OpenAI 30 апреля 2026 года запустила Advanced Account Security, новый добровольный режим защиты для личных аккаунтов ChatGPT. В официальном анонсе компания отдельно подчёркивает, что после включения защита распространяется и на Codex. На поверхности это похоже на очередной апдейт про passkeys и аппаратные ключи. Но если читать анонс вместе со страницей справки и апрельскими материалами OpenAI про Trusted Access for Cyber, картина становится шире: безопасность аккаунта превращается в часть продуктовой архитектуры AI-платформы, а не в фоновую настройку.
По состоянию на 2 мая 2026 года OpenAI не делает этот режим обязательным для всех пользователей. Но для отдельных участников Trusted Access for Cyber, которые получают доступ к самым мощным и более свободным киберрежимам OpenAI, Advanced Account Security станет обязательной с 1 июня 2026 года. Это важный сигнал для рынка: когда в одном логине лежат рабочие чаты, код, доступ к Codex и чувствительные рабочие процессы, вопрос «как вы входите в систему» уже нельзя отделить от вопроса «какой уровень доверия выдаёт платформа».
Что именно меняется в аккаунте
OpenAI позиционирует Advanced Account Security как режим для людей с повышенным риском цифровых атак и для тех, кто просто хочет самый жёсткий доступный вариант защиты. При этом на странице справки есть важное ограничение: функция доступна только для подходящих личных аккаунтов ChatGPT в поддерживаемых регионах. Она не работает для ChatGPT Enterprise, аккаунтов под управлением компании и доменов под управлением компании. Если личный аккаунт позже становится enterprise-managed, OpenAI пишет, что Advanced Account Security может быть отключена.
После включения AAS аккаунт меняется довольно радикально:
- вход разрешён через passkeys или совместимые аппаратные ключи безопасности, а парольный вход отключается;
- email- и SMS-коды для входа отключаются;
- восстановление через email отключается, а запасным вариантом становятся recovery keys, резервные passkeys и security keys;
- активные сессии становятся короче, OpenAI отправляет уведомления о входе, а пользователь получает более жёсткий контроль над активными устройствами;
- разговоры из такого аккаунта автоматически не идут в обучение моделей, пока режим включён.
Есть и цена за эту жёсткость. Чтобы включить режим, нужно завести как минимум два сильных метода входа, причём один должен работать между устройствами. Ключи восстановления надо сохранить отдельно. Если пользователь потеряет и ключи входа, и ключи восстановления, он может навсегда потерять доступ к аккаунту. OpenAI отдельно предупреждает, что поддержка в таком режиме не сможет вернуть доступ через старую схему восстановления. Более того, если восстановление всё же запускается через валидный ключ восстановления, страница справки указывает 48-часовую задержку перед разблокировкой аккаунта.
YubiKey здесь не обязательна. OpenAI и Yubico продвигают совместный комплект как более удобный путь к фишинг-устойчивой аутентификации, но компания принимает и другие FIDO-совместимые ключи, а также программные passkeys. Это важная деталь: OpenAI продаёт не конкретный аксессуар, а более строгую модель доверия к самому входу.

Почему упоминание Codex важнее, чем кажется
Самая важная строчка в официальном анонсе не про Yubico, а про Codex. OpenAI прямо пишет, что после включения Advanced Account Security защита распространяется на пользователей в Codex. Для массового читателя это может звучать как косметическая приписка. Для разработчика это уже другой уровень ставки.
Личный аккаунт ChatGPT давно перестал быть просто местом для переписки с ботом. OpenAI в том же анонсе пишет, что такой аккаунт может стоять в центре подключённых инструментов и рабочих процессов и хранить чувствительный личный и профессиональный контекст. Если на том же логине висит Codex, в этот контур попадают черновики кода, отладочные диалоги, рабочие сценарии и следы инженерных задач. Мы уже разбирали близкую логику в материале про OpenAI Privacy Filter: чем глубже AI-платформа заходит в разработку и чувствительные процессы, тем труднее отделять «удобство» от «допуска к данным».
Отсюда и парадокс текущего запуска. С одной стороны, OpenAI начинает не с enterprise-контуров, а с личных аккаунтов. С другой, именно личные аккаунты у многих команд давно пересекаются с реальной работой: кто-то держит там исследовательские заметки, кто-то прогоняет код в Codex, кто-то хранит разбор инцидентов, а кто-то использует ChatGPT как персональный слой над рабочими инструментами. В такой модели пароль и восстановление через email выглядят не как безобидное наследие прошлой эпохи, а как слабое звено в цепочке доверия.

Как это связано с Trusted Access for Cyber
Связка с Trusted Access for Cyber делает новость заметно важнее обычного security-апдейта. Ещё 5 февраля 2026 года OpenAI описывала TAC как систему доступа на основе подтверждённой личности и доверительных сигналов, которая должна давать расширенные кибервозможности «в правильные руки». А 14 апреля компания написала, что масштабирует программу до тысяч проверенных защитников и сотен команд, отвечающих за защиту критически важного ПО.
В апрельском материале про масштабирование Trusted Access for Cyber OpenAI формулирует логику предельно прямо: риск определяется не только моделью, но и тем, кто ей пользуется, какие сигналы доверия есть вокруг пользователя и какой уровень доступа ему дан. В этом смысле Advanced Account Security не выдаёт дополнительные возможности сама по себе, но создаёт более жёсткий входной слой для аккаунтов, у которых этот уровень доступа потенциально выше.
Официальный анонс AAS фиксирует это уже без намёков. Отдельные участники Trusted Access for Cyber, которые используют самые мощные и менее ограниченные кибермодели OpenAI, должны будут включить Advanced Account Security с 1 июня 2026 года. Для организаций с доверенным доступом OpenAI допускает альтернативу: подтвердить, что фишинг-устойчивая аутентификация уже встроена в их SSO-поток. Иначе говоря, компания увязывает право на более чувствительный режим работы с тем, насколько надёжно защищён сам аккаунт.
Для Toolarium здесь важен не только сам факт обязательного включения. Важнее то, что OpenAI сшивает в один контур несколько раньше разрозненных тем: доверенный доступ, киберверификацию, Codex, защиту рабочих сессий и безопасность потребительского аккаунта. Рядом с этим уже читаются и другие ходы компании, от масштабирования GPT-5.4-Cyber через Trusted Access for Cyber до Safety Bug Bounty для уязвимостей в агентных сценариях. Все они говорят об одном: слой идентификации и безопасности превращается в часть платформенной стратегии, а не в скучное приложение к модели.
Что это меняет для рынка AI-сервисов
Сейчас вокруг AI-продуктов чаще спорят о моделях, бенчмарках и ценах. Advanced Account Security напоминает, что следующий уровень конкуренции будет проходить и по другой линии: как платформа управляет доступом, что считает достаточно сильной аутентификацией, кто отвечает за восстановление, какие данные автоматически исключаются из обучения и как отделяется обычный пользователь от доверенного участника более рискованных сценариев.
Важно и то, чего OpenAI пока не сделала. Компания не распространила AAS на enterprise-аккаунты и не объявила её массовым обязательным стандартом. То есть речь не о «полном отказе от паролей» для всей аудитории и не о новом базовом режиме для бизнеса. Но направление уже видно. Личный аккаунт ChatGPT и Codex перестаёт быть нейтральной оболочкой вокруг модели и всё больше становится защищённым входом в экосистему, где лежат рабочие данные, код и доступ к более чувствительным режимам.
Поэтому нынешний запуск стоит читать не как ещё один пункт в списке обновлений про passkeys. Это шаг к миру, где AI-платформа конкурирует не только качеством ответа, но и тем, насколько надёжно она удерживает доверенный периметр вокруг пользователя. Для сервисов, которые хотят стать рабочей инфраструктурой, другой логики уже, похоже, не будет.