GitHub Copilot 24 апреля: что проверить до opt-out

GitHub Copilot с 24 апреля меняет правила model training для индивидуальных Free/Pro/Pro+. Короткий чеклист: кого касается и где отключить настройку.

GitHub Copilot 24 апреля: что проверить до opt-out

По состоянию на 19 апреля 2026 года до изменения политики GitHub Copilot осталось пять дней. Если у вас индивидуальный Copilot Free, Pro или Pro+, с 24 апреля GitHub может использовать данные ваших взаимодействий с Copilot для обучения и улучшения моделей, если вы не отключите настройку. Полная инструкция уже есть в нашем гайде как отключить обучение GitHub Copilot на вашем коде. Эта заметка короче: кому нужно проверить настройку до даты и что именно не стоит перепутать.

Ключевой запрос этого материала: GitHub Copilot 24 апреля. Смысл не в панике вокруг приватных репозиториев, а в дедлайне для конкретной группы пользователей. GitHub говорит не о пассивном сканировании всего закрытого кода, а о данных взаимодействий, которые отправляются Copilot во время работы.

GitHub Community FAQ про обновление политики Copilot для Free Pro и Pro Plus
GitHub Community FAQ с разбором обновления политики Copilot: кого касается изменение, какие данные могут использоваться и как работает opt-out. Источник: GitHub Community.

Что меняется 24 апреля

GitHub объявил обновление 25 марта 2026 года. В блоге компании сказано, что с 24 апреля данные взаимодействий пользователей Copilot Free, Pro и Pro+ будут использоваться для обучения и улучшения моделей, если пользователь не откажется от участия. В документации GitHub формулирует это аккуратнее: компания может использовать inputs, outputs, code snippets и связанный контекст из взаимодействий с функциями и сервисами GitHub.

Здесь важны две границы. Первая: изменение касается индивидуальных планов Free, Pro и Pro+. Вторая: Copilot Business и Copilot Enterprise не попадают под это обновление, потому что их данные защищены отдельными договорными условиями. GitHub также отдельно пишет, что программа не использует данные из enterprise-owned repositories.

Кого касается проверка

Сценарий Что делать до 24 апреля Источник
Индивидуальный Copilot Free, Pro или Pro+ Проверить настройку model training в личных Copilot settings и отключить её, если вы не хотите участвовать в обучении. GitHub Blog, GitHub Docs
Copilot Business или Copilot Enterprise Проверить корпоративную политику, но само обновление для индивидуальных планов на эти тарифы не распространяется. GitHub Blog, GitHub Docs
Работа в репозитории платной организации Уточнить правила компании. GitHub в FAQ пишет, что не обучает модели на содержимом репозиториев платных организаций, даже если пользователь работает там с личной Copilot-подпиской. GitHub Community FAQ
Студенты и преподаватели с бесплатным доступом к Copilot Pro По FAQ GitHub, эти группы не затронуты обновлением. GitHub Community FAQ

Что GitHub называет данными взаимодействий

В блоге GitHub перечисляет данные, которые могут попадать в программу при включённой настройке: принятые или изменённые ответы Copilot, inputs, code snippets, контекст вокруг курсора, комментарии и документация, имена файлов, структура репозитория, навигационные паттерны, действия в чате и inline suggestions, а также оценки ответов.

Это не то же самое, что «GitHub забирает весь приватный репозиторий». В FAQ компания отдельно отвечает на этот страх: код из приватных репозиториев может попасть в обучение только как snippets и outputs, активно отправленные Copilot во время сессии, если пользователь разрешил обучение. GitHub пишет, что не вытягивает код из приватных репозиториев «в покое».

Практически это означает простое правило: если вы работаете с чувствительным кодом в личном аккаунте Copilot, настройку лучше проверить сейчас. Неважно, считаете ли вы формулировку GitHub достаточно строгой. Риск возникает в момент активной работы с Copilot, а не только при хранении репозитория на GitHub.

GitHub Docs страница управления политиками Copilot для индивидуальной подписки
Официальная документация GitHub Copilot settings: раздел про управление политиками индивидуальной подписки и настройку model training. Источник: GitHub Docs.

Где отключить обучение на ваших данных

GitHub Docs описывает путь так: откройте свой профиль на GitHub, перейдите в Copilot settings и найдите пункт Allow GitHub to use my data for AI model training. В выпадающем меню нужно выбрать Disabled. Если такого пункта нет, GitHub предлагает проверить тип аккаунта: для Business и Enterprise эта настройка не отображается.

Если вы уже раньше отключали сбор prompt and suggestion collection, GitHub обещает сохранить этот выбор. По FAQ, в таком случае данные взаимодействий не будут использоваться для обучения, пока вы сами не включите настройку.

Минимальный чеклист на сегодня:

  • Проверьте, какой у вас тариф Copilot: Free, Pro, Pro+, Business или Enterprise.
  • Откройте личные Copilot settings и найдите настройку model training.
  • Если вы не хотите участвовать в обучении, переключите её в Disabled.
  • Сделайте скриншот настройки для себя или для внутреннего compliance-следа.
  • Если вы работаете с корпоративным кодом через личный аккаунт, отдельно проверьте политику работодателя.

Что проверить командам разработки

Для команды проблема не сводится к одному переключателю. Многие разработчики пользуются личными аккаунтами, IDE-плагинами и несколькими репозиториями одновременно. Поэтому стоит быстро провести инвентаризацию: кто работает с Copilot на личной подписке, в каких репозиториях, с каким кодом и по какой внутренней политике.

Если команда уже сидит на Copilot Business или Enterprise, паники быть не должно. Но это хороший повод обновить внутреннюю памятку: какие ассистенты разрешены, какие данные нельзя отправлять в чат, можно ли пользоваться личными AI-кодерами на рабочем проекте и кто отвечает за настройки приватности. Мы отдельно разбирали рынок таких инструментов в сравнении Cursor, Copilot и Windsurf.

Отдельная зона риска связана не только с GitHub. В 2026 году поставщики AI-инструментов всё чаще учатся на реальных пользовательских сценариях. В материале о том, как Cursor обучает Composer на реальных пользователях, мы уже показывали, почему политика данных становится частью выбора инструмента для разработки, а не юридической сноской.

Короткий вывод

До 24 апреля у индивидуальных пользователей Copilot Free, Pro и Pro+ есть время спокойно проверить одну настройку. Если вы не хотите, чтобы ваши взаимодействия с Copilot использовались для обучения моделей, отключите model training в личных Copilot settings. Если у вас корпоративный тариф, проверьте политику организации, но не переносите на Business и Enterprise правила индивидуальных планов.

Главное, не пересказывать эту историю как «GitHub обучается на всех приватных репозиториях». Официальные источники говорят точнее: речь о данных взаимодействий, отправляемых Copilot во время работы, и о праве индивидуального пользователя отказаться от участия.

Источники и проверка фактов

Telegram-канал @toolarium