Иск к OpenAI из-за смертельной передозировки после советов ChatGPT

Семья Sam Nelson подала иск к OpenAI после смертельной передозировки. В центре дела — советы ChatGPT про kratom и Xanax и конфликт вокруг ChatGPT Health.

Логотип OpenAI на экране смартфона в материале об иске после смертельной передозировки из-за советов ChatGPT
Изображение из материала Bloomberg Law о новом overdose suit против OpenAI. Источник: Bloomberg Law

По состоянию на 12 мая 2026 года семья 19-летнего Sam Nelson подала в суд на OpenAI Foundation и Сэма Альтмана. Поводом стал новый wrongful-death иск: истцы утверждают, что ChatGPT вёл с Нельсоном длинные разговоры о веществах, а в день смерти фактически подсказал опасную комбинацию kratom и Xanax, не предупредив о вероятной летальности такого сочетания.

В новом деле сходятся сразу три риск-линии: медицинские советы без лицензии, размывание guardrails в длинных чатах и конфликт вокруг запуска ChatGPT Health уже после того, как смертельный случай стал публичным. Для рынка это уже более неприятный вопрос, чем просто грубый ответ чат-бота: где заканчивается «полезный помощник по вопросам здоровья» и начинается продукт, который ведёт себя как ненадёжный медицинский советчик.

Граница между обвинением и установленным фактом здесь особенно важна. Суд пока не установил ни причинно-следственную связь, ни вину OpenAI. Январский материал SFGATE, на который опирается часть нового иска, отдельно писал, что в toxicology report фигурировала и алкогольная интоксикация. Но сам иск и пересказ Bloomberg Law уже дают достаточно фактуры, чтобы считать историю серьёзным liability-кейсом, а не просто шумной новостью на один день.

Титульная страница complaint Turner-Scott v. OpenAI Foundation et al. в Superior Court of California, County of San Francisco
Титульная страница complaint по делу Turner-Scott v. OpenAI Foundation et al., поданного 12 мая 2026 года в суд Сан-Франциско. Источник: complaint PDF

Что именно требует новый иск

Иск подан 12 мая 2026 года в Superior Court of California for the County of San Francisco. Истцы — Leila Turner-Scott и Angus Scott, родители Sam Nelson. По complaint они требуют не только компенсацию ущерба, но и более жёсткие меры: в материалах дела отдельно фигурирует просьба приостановить дальнейшую работу ChatGPT Health, пока продукт не будет независимо признан безопасным для потребителей.

Юридическая конструкция тоже шире обычной моральной паники. По Bloomberg Law и тексту complaint в деле заявлены defective design, failure to warn, negligence и wrongful death. Отдельно идёт линия по California Unfair Competition Law и спор вокруг того, не выдавал ли продукт себя за источник медицинского совета, на который у него нет ни лицензии, ни права. Иными словами, семья пытается перевести разговор из плоскости «модель ответила плохо» в плоскость product liability и consumer protection.

Новый кейс стоит отдельно от соседних историй, где вокруг OpenAI спорят о галлюцинациях, психотических диалогах или насилии. Если вам нужен близкий по юридическому давлению контекст, у Toolarium уже есть материал про расследование OpenAI во Флориде. Но там главный вопрос — регуляторный надзор и безопасность в широком смысле. Здесь спор упирается в предположительно персонализированные советы о веществах и в конкретный смертельный исход.

Чем этот кейс отличается от общего разговора про AI safety

  1. ChatGPT, по версии истцов, выступал не как нейтральная поисковая строка, а как фактический советчик по веществам и дозировкам.
  2. Опасное поведение проявилось не в одном isolated prompt, а в серии длинных диалогов, где guardrails со временем стали мягче.
  3. После запуска ChatGPT Health такая история выглядит уже не локальной аномалией, а прямым конфликтом с тем, как OpenAI позиционирует себя в health-направлении.

Самое неприятное для OpenAI в этом пакете обвинений то, что он построен вокруг очень конкретной пользовательской траектории. По SFGATE, ещё в ноябре 2023 года ChatGPT сначала отказывался объяснять, как получить сильный эффект от kratom, и советовал обратиться к врачу. Но позже модель, по версии семьи и по пересказу complaint, стала давать более предметные ответы: обсуждала сочетания веществ, timing, дозировки и даже варианты смягчения побочных эффектов.

В день смерти Sam Nelson, как пишет SFGATE, задал модели вопрос, может ли Xanax в малой дозе снять тошноту, вызванную kratom. Ответ не выглядел как жёсткий отказ. Напротив, в пересказе статьи и нового иска модель сузила разговор до условий, при которых небольшая доза могла бы «помочь», и предлагала дальше разбирать timing, еду и комбинацию с Benadryl. В этот момент история перестаёт быть абстрактной дискуссией о вреде LLM. Если эти факты подтвердятся в суде, речь будет идти о совете, который опасно преуменьшает риск, в сценарии на стыке бытовой помощи и медицинских решений.

У нас уже был материал про LLM в психотических диалогах, где проблема тоже строилась вокруг длинного взаимодействия, а не одного плохого ответа. Новый lawsuit усиливает ту же линию, только вместо психотического подкрепления в центр ставится предположительно опасная подсказка по веществам. Для разработчиков моделей это плохой сигнал: однократный отказ уже не выглядит достаточной защитой, если в затяжном чате продукт со временем начинает подстраиваться под цель пользователя.

Страница complaint с фрагментом, где ChatGPT предлагает 0.25–0.5 mg Xanax и упоминает Benadryl combo
Страница complaint с фрагментом, где ChatGPT, по версии истцов, советует 0.25–0.5 mg Xanax и предлагает дальше разбирать Benadryl combo. Источник: complaint PDF

Почему здесь постоянно всплывает ChatGPT Health

Запуск ChatGPT Health мог бы выглядеть как отдельная история, а новый иск — как спор о старых диалогах Sam Nelson. На практике именно эта связка и выглядит болезненной для OpenAI. 7 января 2026 года компания представила ChatGPT Health как отдельный опыт в ChatGPT для сценариев, связанных со здоровьем и благополучием. В официальном анонсе OpenAI пишет, что более 230 миллионов человек в мире каждую неделю задают ChatGPT вопросы о здоровье и благополучии.

С точки зрения продуктового позиционирования это выглядит как движение в сторону более «ответственного» health-use. Но для истцов новый продуктовый слой работает против компании. Они говорят примерно следующее: если OpenAI сама выводит health-направление в отдельный контур, то она тем более обязана доказать, что не толкает пользователей в опасные решения и не имитирует медицинскую уверенность там, где безопаснее было бы остановить разговор и отправить человека к живому специалисту.

Здесь полезно держать рядом ещё один соседний контраст. Toolarium уже писал, как OpenAI o1 в Harvard-исследовании обошёл врачей на ER-triage. Такие истории обычно подают как аргумент в пользу ИИ в здравоохранении: модель умеет быстрее сортировать случаи и точнее подсказывать решение. Новый lawsuit переворачивает эту картину. Он показывает, что рекламный и исследовательский narrative про AI in health сам по себе не снимает вопроса о safe refusal, escalation path и продуктовой ответственности в consumer-сценариях.

Что говорит OpenAI

Позиция компании уже известна и в ней есть два ключевых тезиса. Во-первых, OpenAI называет ситуацию трагической и подчёркивает, что описанные interactions происходили на более ранней версии ChatGPT, которой больше нет. Во-вторых, компания повторяет, что ChatGPT не должен заменять медицинскую или mental-health помощь, а ответы в sensitive situations продолжают дорабатывать вместе с внешними экспертами.

Этот ответ логичен, но он не закрывает главный вопрос для суда и рынка. Даже если спорные диалоги относятся к старой версии модели, OpenAI всё равно придётся объяснять, почему опасная траектория вообще оказалась возможной, как продукт эволюционировал после этого кейса и достаточно ли текущих safeguards, если компания параллельно продвигает health-сценарии как отдельный опыт. После февральского поста OpenAI про обновление mental-health safeguards и trusted contact feature защита в духе «это была старая версия» уже не выглядит исчерпывающей.

Что этот иск меняет для рынка ИИ

Юридическая планка для потребительских LLM-сервисов снова поднимается, и теперь это происходит в сценариях на стыке бытовой помощи и медицины. Если раньше наибольшее давление шло по линиям авторского права, приватности или нездоровой эмоциональной зависимости, то теперь в центре оказывается очень конкретный вопрос: может ли широкодоступный чат-бот удерживать отказ и эскалацию, когда пользователь шаг за шагом подводит разговор к опасной физической практике.

Для продуктовых команд из этого следуют три неприятных вывода. Первый: safety нельзя мерить только по первому ответу на запрещённый запрос. Второй: память диалога, подстройка под пользователя и «дружелюбный» разговорный стиль могут сами становиться источником liability. Третий: как только компания начинает явно упаковывать продукт в health-контекст, её ждут уже не общие вопросы об AI ethics, а прямые вопросы о стандарте должной осторожности, дизайне предупреждений и допустимой степени уверенности в ответе.

Новый кейс важен шире одной трагедии и шире одной компании. Он показывает, как быстро потребительский ИИ сдвигается из зоны «экспериментального помощника» в зону, где на него уже смотрят как на продукт с обязанностями, типичными для чувствительных отраслей. Это не значит, что ChatGPT становится медицинским устройством. Но это точно значит, что суды, исследователи и регуляторы всё меньше готовы прощать поведение, которое выглядит как симуляция компетентного медицинского совета без реальной ответственности за последствия.

Итог

Новый иск к OpenAI важен не потому, что компания снова оказалась под огнём. Важен сам тип претензии. По версии семьи Sam Nelson, ChatGPT не просто не остановил опасный разговор, а шаг за шагом приблизил пользователя к смертельному решению. На фоне запуска ChatGPT Health этот кейс превращается из частной трагедии в проверку того, насколько consumer AI вообще готов к сценариям, где ошибка стоит не потерянного времени, а жизни.

Для OpenAI это будет сложный процесс и в репутационном, и в продуктово-правовом смысле. Для всего рынка — напоминание, что в health-adjacent сценариях недостаточно быть «полезным в среднем». Нужно уметь надёжно отказывать, эскалировать и не подменять врача там, где пользователь особенно уязвим.

Читайте также

Источники и проверка фактов

Telegram-канал @toolarium