Nature отозвал исследование о пользе ChatGPT в образовании
Nature Portfolio отозвал влиятельный метаанализ о пользе ChatGPT в образовании. Разбираем, что сломалось в исследовании и почему это важно для edtech.
Проверено 4 мая 2026 года. Nature отозвал исследование о пользе ChatGPT в образовании. Точнее, Nature Portfolio снял статью в Humanities and Social Sciences Communications, которая с мая 2025 года успела набрать 486 тысяч просмотров и 264 цитирования на странице издателя. Это важная оговорка: речь не о флагманском журнале Nature, но и не о маргинальной публикации. За год этот метаанализ стал удобной ссылкой для всех, кому нужно было быстро доказать тезис «ChatGPT улучшает обучение».
Сама новость важна не потому, что теперь «ИИ в образовании опровергнут». Вывод грубее и неприятнее: слабая исследовательская база может очень быстро превратиться в продуктовый и управленческий аргумент, а ретракция почти никогда не догоняет исходный охват. На Toolarium мы уже отдельно разбирали, где ИИ в образовании реально помогает, а где нужен жёсткий контроль. История с ретракцией показывает, почему этот контроль нужен не только в классе, но и на уровне самих доказательств.

Что именно утверждала отозванная работа
Статья Jin Wang и Wenxiang Fan вышла 6 мая 2025 года и называлась The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis. В аннотации авторы писали, что собрали 51 исследование, опубликованное между ноябрём 2022 года и февралём 2025-го, и получили крупный положительный эффект для learning performance с g = 0.867 и умеренно положительный эффект для learning perception и higher-order thinking — по g = 0.456 и g = 0.457.
Проблема в том, что из этих чисел очень легко сделать слишком широкий вывод. В самом тексте авторы переходили от статистического результата к практическим рекомендациям: ChatGPT стоит шире внедрять в разные курсы, активнее интегрировать в problem-based learning и держать интервенции по 4–8 недель для более стабильного эффекта. Для рынка образования это звучало почти как готовая санкция на масштабирование.
Именно поэтому статья разошлась так быстро. По состоянию на 4 мая 2026 года на странице Springer Nature у неё видны 486 тысяч доступов, 264 цитирования и Altmetric 985. Даже если эти метрики потом ещё изменятся, порядок величины уже понятен: это не тихая публикация, которую заметили только специалисты по методологии.
| Уровень | Что подтверждено | Чего из этого нельзя выводить |
|---|---|---|
| Оригинальная статья 2025 года | 51 исследование, крупный положительный эффект по learning performance, умеренный по perception и higher-order thinking | Что ChatGPT универсально и доказанно улучшает обучение в любом контексте |
| Официальная ретракция 2026 года | Springer Nature нашёл discrepancies in the meta-analysis и перестал доверять валидности анализа и выводов | Что издатель доказал fraud, подделку данных или полный крах всех исследований по ИИ в образовании |
| Более широкий research-контур | Есть и другие метааналитики и обзоры, которые находят некоторые положительные эффекты, но сами признают сильные ограничения | Что один громкий paper или одна ретракция могут закрыть тему целиком |
Почему Springer Nature снял статью
Официальная retraction note опубликована 22 апреля 2026 года. Формулировка у издателя узкая, но достаточно жёсткая: редактор решил отозвать статью из-за concerns regarding discrepancies in the meta-analysis, а эти проблемы подрывают доверие к валидности анализа и выводов. В той же note отдельно сказано, что авторы не ответили на переписку по поводу ретракции.
Здесь важно не достраивать историю за редакцию. Springer Nature не пишет о мошенничестве, фабрикации данных или злонамеренной подделке. Официально зафиксировано другое: в самом метаанализе обнаружены расхождения, достаточные для того, чтобы издатель перестал доверять результату как научному основанию.
Этого уже достаточно, чтобы новость была большой. Метаанализы часто живут в публичной дискуссии дольше отдельных экспериментов именно потому, что обещают быстрый и удобный итог по большому массиву литературы. Когда ломается такая публикация, под вопрос попадает не один громкий вывод, а вся цепочка последующих пересказов, ссылок и презентаций.
Почему эта история важнее одной статьи
Сюжет здесь не сводится к академической технике. Исследователь Ben Williamson ещё в августе 2025 года писал, что вокруг AI in education быстро разрастается режим viral science: небольшие, локальные и методологически неровные исследования складывают в метаанализы, а затем эти агрегированные числа начинают жить как «доказательство» того, что ИИ улучшает learning outcomes. По его подсчёту, уже к 28 мая 2025 года этот самый метаанализ собрал Altmetric 365 и 386 тысяч доступов.
Ilkka Tuomi формулирует проблему ещё шире. В статье What counts as evidence in AI & ED: Towards Science-for-Policy 3.0 он пишет, что существующие эмпирические данные по AI in education действительно иногда показывают положительный эффект, но при более внимательном разборе всплывают методологические и концептуальные проблемы. Его вывод жёсткий: такая evidence base не должна напрямую направлять policy or practice.
Именно это и делает новость о ретракции по-настоящему важной. Не потому, что она внезапно доказывает «ChatGPT бесполезен для учёбы», а потому, что показывает, как быстро рынок хватается за удобные численные формулы. Одна статья показывает крупный положительный эффект, дальше эта цифра уходит в блоги, презентации, edtech-питчи и разговоры про реформу учебного процесса. Через год издатель отзывает статью, но к тому моменту тезис уже успел превратиться в здравый смысл.
Что из этого не следует
Было бы слишком легко перевернуть эту новость в противоположную догму и заявить, что вся research-база по ChatGPT в образовании ничего не стоит. Источники этого не подтверждают. В том же Humanities and Social Sciences Communications 26 марта 2026 года вышла другая метааналитика — уже по 35 экспериментальным исследованиям и 4193 участникам. Она тоже находит умеренно положительный эффект ChatGPT на learning outcomes с g = 0.670, но сама же честно оговаривает риск sample selection bias и ограничения по полноте модераторов и higher-order thinking.

Корректный вывод скромнее. Во-первых, evidence base вокруг ChatGPT в образовании действительно есть. Во-вторых, эта база очень неоднородна по дизайну исследований, контекстам и качеству журналов. В-третьих, любая попытка превратить её в лозунг вроде «ИИ уже доказанно улучшает обучение» или «ИИ в обучении полностью бесполезен» — это уже не наука, а маркетинг или контрмаркетинг.
Для практики вывод довольно приземлённый. Если вы отвечаете за курс, продукт или политику вуза, смотреть нужно не на одну красивую сводную цифру, а на устройство конкретного сценария: что именно делают студенты, какой навык измеряют, сколько длилась интервенция, кто был контрольной группой, что считается успехом и можно ли переносить этот результат на другой контекст.
Что теперь делать школам, вузам и edtech-командам
Первое: перестать продавать ИИ в образовании через одну магическую цифру. Даже добросовестный метаанализ может оказаться плохой опорой для решения, если под ним лежат разношёрстные и слабые исследования. Второе: разводить два вопроса — помогает ли конкретный инструмент в конкретном учебном сценарии и можно ли из этого строить широкую управленческую рамку. Это не одно и то же.
Третье: возвращать разговор к нормальной педагогической логике. Там, где ИИ помогает готовить материалы, давать первую обратную связь или адаптировать объяснение, у него есть понятная роль. Там, где рынок начинает обещать автоматическое улучшение learning outcomes «в среднем по больнице», нужен тот самый жёсткий контроль, о котором мы писали в материале про ИИ для учёбы и его реальные сценарии. А кейс с агентом, который получил 100% на Stepik, напоминает о другой стороне проблемы: формат оценки сам по себе может поощрять автоматизацию, а не понимание.
История с ретракцией ничего не доказывает про «конец AI in education». Зато она хорошо доказывает другое: в этой области слишком дорого обходится желание быстро найти одну красивую бумагу, которая снимет все вопросы разом.
Источники и дата проверки
Факты в материале проверены 4 мая 2026 года. Для быстро меняющихся метрик статьи — accesses, citations, Altmetric — дата проверки обязательна, потому что эти числа продолжают меняться и после ретракции.
- Springer Nature: RETRACTED ARTICLE — The effect of ChatGPT on students’ learning performance...
- Springer Nature: Retraction Note — The effect of ChatGPT on students’ learning performance...
- Springer Nature: ChatGPT’s impact on student learning outcomes: a meta-analysis of 35 experimental studies
- Amsterdam University Press: What counts as evidence in AI & ED: Towards Science-for-Policy 3.0
- Ben Williamson / NEPC: Code Acts in Education: Enumerating AI Effects in Education
- 404 Media: Nature Retracts Paper on the Benefits of ChatGPT in Education