GitHub Copilot 24 апреля: что проверить до opt-out
GitHub Copilot с 24 апреля меняет правила model training для индивидуальных Free/Pro/Pro+. Короткий чеклист: кого касается и где отключить настройку.
По состоянию на 19 апреля 2026 года до изменения политики GitHub Copilot осталось пять дней. Если у вас индивидуальный Copilot Free, Pro или Pro+, с 24 апреля GitHub может использовать данные ваших взаимодействий с Copilot для обучения и улучшения моделей, если вы не отключите настройку. Полная инструкция уже есть в нашем гайде как отключить обучение GitHub Copilot на вашем коде. Эта заметка короче: кому нужно проверить настройку до даты и что именно не стоит перепутать.
Ключевой запрос этого материала: GitHub Copilot 24 апреля. Смысл не в панике вокруг приватных репозиториев, а в дедлайне для конкретной группы пользователей. GitHub говорит не о пассивном сканировании всего закрытого кода, а о данных взаимодействий, которые отправляются Copilot во время работы.

Что меняется 24 апреля
GitHub объявил обновление 25 марта 2026 года. В блоге компании сказано, что с 24 апреля данные взаимодействий пользователей Copilot Free, Pro и Pro+ будут использоваться для обучения и улучшения моделей, если пользователь не откажется от участия. В документации GitHub формулирует это аккуратнее: компания может использовать inputs, outputs, code snippets и связанный контекст из взаимодействий с функциями и сервисами GitHub.
Здесь важны две границы. Первая: изменение касается индивидуальных планов Free, Pro и Pro+. Вторая: Copilot Business и Copilot Enterprise не попадают под это обновление, потому что их данные защищены отдельными договорными условиями. GitHub также отдельно пишет, что программа не использует данные из enterprise-owned repositories.
Кого касается проверка
| Сценарий | Что делать до 24 апреля | Источник |
|---|---|---|
| Индивидуальный Copilot Free, Pro или Pro+ | Проверить настройку model training в личных Copilot settings и отключить её, если вы не хотите участвовать в обучении. | GitHub Blog, GitHub Docs |
| Copilot Business или Copilot Enterprise | Проверить корпоративную политику, но само обновление для индивидуальных планов на эти тарифы не распространяется. | GitHub Blog, GitHub Docs |
| Работа в репозитории платной организации | Уточнить правила компании. GitHub в FAQ пишет, что не обучает модели на содержимом репозиториев платных организаций, даже если пользователь работает там с личной Copilot-подпиской. | GitHub Community FAQ |
| Студенты и преподаватели с бесплатным доступом к Copilot Pro | По FAQ GitHub, эти группы не затронуты обновлением. | GitHub Community FAQ |
Что GitHub называет данными взаимодействий
В блоге GitHub перечисляет данные, которые могут попадать в программу при включённой настройке: принятые или изменённые ответы Copilot, inputs, code snippets, контекст вокруг курсора, комментарии и документация, имена файлов, структура репозитория, навигационные паттерны, действия в чате и inline suggestions, а также оценки ответов.
Это не то же самое, что «GitHub забирает весь приватный репозиторий». В FAQ компания отдельно отвечает на этот страх: код из приватных репозиториев может попасть в обучение только как snippets и outputs, активно отправленные Copilot во время сессии, если пользователь разрешил обучение. GitHub пишет, что не вытягивает код из приватных репозиториев «в покое».
Практически это означает простое правило: если вы работаете с чувствительным кодом в личном аккаунте Copilot, настройку лучше проверить сейчас. Неважно, считаете ли вы формулировку GitHub достаточно строгой. Риск возникает в момент активной работы с Copilot, а не только при хранении репозитория на GitHub.

Где отключить обучение на ваших данных
GitHub Docs описывает путь так: откройте свой профиль на GitHub, перейдите в Copilot settings и найдите пункт Allow GitHub to use my data for AI model training. В выпадающем меню нужно выбрать Disabled. Если такого пункта нет, GitHub предлагает проверить тип аккаунта: для Business и Enterprise эта настройка не отображается.
Если вы уже раньше отключали сбор prompt and suggestion collection, GitHub обещает сохранить этот выбор. По FAQ, в таком случае данные взаимодействий не будут использоваться для обучения, пока вы сами не включите настройку.
Минимальный чеклист на сегодня:
- Проверьте, какой у вас тариф Copilot: Free, Pro, Pro+, Business или Enterprise.
- Откройте личные Copilot settings и найдите настройку model training.
- Если вы не хотите участвовать в обучении, переключите её в Disabled.
- Сделайте скриншот настройки для себя или для внутреннего compliance-следа.
- Если вы работаете с корпоративным кодом через личный аккаунт, отдельно проверьте политику работодателя.
Что проверить командам разработки
Для команды проблема не сводится к одному переключателю. Многие разработчики пользуются личными аккаунтами, IDE-плагинами и несколькими репозиториями одновременно. Поэтому стоит быстро провести инвентаризацию: кто работает с Copilot на личной подписке, в каких репозиториях, с каким кодом и по какой внутренней политике.
Если команда уже сидит на Copilot Business или Enterprise, паники быть не должно. Но это хороший повод обновить внутреннюю памятку: какие ассистенты разрешены, какие данные нельзя отправлять в чат, можно ли пользоваться личными AI-кодерами на рабочем проекте и кто отвечает за настройки приватности. Мы отдельно разбирали рынок таких инструментов в сравнении Cursor, Copilot и Windsurf.
Отдельная зона риска связана не только с GitHub. В 2026 году поставщики AI-инструментов всё чаще учатся на реальных пользовательских сценариях. В материале о том, как Cursor обучает Composer на реальных пользователях, мы уже показывали, почему политика данных становится частью выбора инструмента для разработки, а не юридической сноской.
Короткий вывод
До 24 апреля у индивидуальных пользователей Copilot Free, Pro и Pro+ есть время спокойно проверить одну настройку. Если вы не хотите, чтобы ваши взаимодействия с Copilot использовались для обучения моделей, отключите model training в личных Copilot settings. Если у вас корпоративный тариф, проверьте политику организации, но не переносите на Business и Enterprise правила индивидуальных планов.
Главное, не пересказывать эту историю как «GitHub обучается на всех приватных репозиториях». Официальные источники говорят точнее: речь о данных взаимодействий, отправляемых Copilot во время работы, и о праве индивидуального пользователя отказаться от участия.
Источники и проверка фактов
- GitHub Blog: Updates to GitHub Copilot interaction data usage policy, опубликовано 25 марта 2026 года, проверено 19 апреля 2026 года.
- GitHub Community FAQ: Privacy Statement update on Copilot data use for model training, проверено 19 апреля 2026 года.
- GitHub Docs: Managing GitHub Copilot policies as an individual subscriber, раздел Model training and improvements, проверено 19 апреля 2026 года.