ИИ и авторское право: где проходит граница

Практический разбор границы между ИИ и авторским правом: человеческое авторство, обучающие данные и риски для бизнеса в США, ЕС и России.

ИИ и авторское право: страница U.S. Copyright Office о человеческом авторстве

Проверено 11 мая 2026 года. У споров вокруг ИИ и авторского права есть неприятная особенность: люди пытаются решить одним вопросом сразу три разные проблемы. Первая — можно ли вообще получить авторское право на результат, если в работе участвовала модель. Вторая — можно ли обучать модель на чужих произведениях без лицензии. Третья — кто отвечает, если бизнес публикует, продаёт или встраивает такой результат в продукт. Пока всё это смешано в один клубок, команды принимают плохие решения.

На май 2026 года универсального ответа по всем юрисдикциям нет. Но границы уже видны. В США U.S. Copyright Office и федеральные суды жёстко держатся за человеческое авторство. В ЕС спор об обучающих данных живёт рядом с отдельным слоем правил про text and data mining, opt-out и обязанности провайдеров моделей общего назначения. В России базовая норма тоже человеческая: автором признаётся гражданин, творческим трудом которого создано произведение. Ниже — карта по этим трём границам без моральной паники и без лишней самоуверенности.

Короткий вывод: где проходят три границы

  • Авторское право на результат и законность обучающих данных — это разные вопросы. Их нельзя закрыть одной общей фразой про «законность ИИ».
  • В США и России практическая база человеческая: чем тоньше человеческий вклад в итоговый материал, тем слабее позиция по авторству.
  • В ЕС спор об использовании чужих произведений для обучения завязан не только на иски, но и на режим text and data mining, reservation of rights и новые обязанности GPAI-провайдеров по AI Act.

Граница первая: где заканчивается человеческое авторство

Самый устойчивый сигнал на сегодня идёт из США. 29 января 2025 года U.S. Copyright Office выпустила вторую часть своего AI-отчёта и зафиксировала простое правило: авторско-правовая охрана возникает только там, где человек определил достаточные выразительные элементы произведения. Помощь ИИ сама по себе охрану не отменяет, но одного промпта для неё недостаточно.

Это уже сложившаяся линия, которую Office просто закрепила. В истории с Zarya of the Dawn Copyright Office ещё 21 февраля 2023 года оставила защиту тексту и композиции страниц, созданным человеком, но не Midjourney-изображениям как таковым. А 18 марта 2025 года D.C. Circuit в деле Thaler v. Perlmutter подтвердил ещё более жёсткий тезис: если работа изначально не создана человеком, сам объект авторского права не возникает.

Первая страница отчёта U.S. Copyright Office Part 2 о copyrightability и роли человеческого авторства
Первая страница второй части отчёта U.S. Copyright Office об авторстве и ИИ. Источник: U.S. Copyright Office.

Для продуктовых и контент-команд отсюда следует вполне практический вывод.

  • Если человек использует модель как инструмент редактуры, чернового варианта, раскадровки или поиска формулировки, а затем сам пишет, отбирает, перестраивает и доводит материал, защищаемым будет именно человеческий вклад.
  • Если человек собирает итоговую работу из сгенерированных фрагментов, важным становится то, насколько заметны его собственный отбор, композиция и правка.
  • Если схема выглядит как «один промпт — готовая картинка, текст или код без существенной переработки», позиция по авторству становится слабой уже на старте.

Важно и другое: U.S. Copyright Office отдельно говорит, что использование ИИ в процессе создания не запрещает охрану автоматически. Проблемы начинаются, когда машинно определённый результат пытаются выдать за полноценное человеческое авторство без следов человеческой работы.

В Европе ответ менее унифицирован, потому что авторское право здесь во многом остаётся зоной национального права. Но официальный материал European Commission IP Helpdesk напоминает ту же базовую логику: чтобы работа вообще претендовала на охрану, она должна быть оригинальной и отражать собственную интеллектуальную работу автора. Для редакции, студии или продуктовой команды вывод неприятный, но полезный: нельзя рассчитывать, что «европейское право само всё признает», если человеческий вклад в финальную форму не виден.

Российская отправная точка по духу похожа. Статья 1257 ГК РФ прямо говорит, что автором произведения науки, литературы или искусства признаётся гражданин, творческим трудом которого оно создано. Специального AI-исключения в этой норме нет. Для практики это означает простое правило: чем лучше вы можете показать человеческий вклад, тем легче защищать права. Один скриншот промпта здесь помогает меньше, чем история правок, черновики, редакторские решения и договор с исполнителем.

Граница вторая: обучающие данные — это отдельный спор

Даже сильный человеческий вклад в итоговую статью, баннер или фрагмент кода не отвечает на другой вопрос: законно ли сама модель работала с чужими произведениями на этапе обучения. Именно здесь чаще всего всё смешивают в одну фразу «ИИ нарушает авторское право», хотя речь идёт о другом слое права.

В США этот слой к маю 2026 года остаётся спорным, но уже не пустым. 9 мая 2025 года U.S. Copyright Office выпустила предварительную версию третьей части своего AI-отчёта про обучение генеративных моделей. По состоянию на 11 мая 2026 года на официальной странице Office всё ещё указано, что это предварительная версия, а финальная редакция будет опубликована позже без ожидаемых существенных изменений в выводах. Ключевой тезис там важный: исходы по fair use нельзя заранее объявить одинаковыми для всех моделей и всех корпусов данных. Часть сценариев использования может пройти как fair use, а часть — нет.

Office прямо пишет, что некоммерческое исследование без воспроизведения защищённых фрагментов в выводе выглядит сильнее. Копирование выразительных работ из пиратских источников ради генерации неограниченного конкурирующего контента, когда лицензирование разумно доступно, наоборот, выглядит слабее. Это не даёт бизнесу комфортного «да» или «нет», зато убирает опасную иллюзию, будто одна ссылка на fair use автоматически закрывает весь вопрос.

Судебная практика начала подбираться к этой зоне. 11 февраля 2025 года федеральный суд в Делавэре в деле Thomson Reuters v. Ross Intelligence отказал Ross в защите fair use: компания использовала материалы, восходящие к headnotes Westlaw, чтобы обучать конкурирующий сервис поиска по праву. Это не универсальный приговор всему generative AI и не кейс про массовый веб-скрейпинг новостных архивов. Но это уже реальный американский сигнал: обучение на чужом защищённом корпусе не получает автоматического иммунитета только потому, что копирование происходило «на промежуточной стадии».

Одновременно большие американские дела никуда не делись. В order от 4 апреля 2025 года по иску The New York Times v. OpenAI/Microsoft суд не закрыл ключевые copyright claims на стадии motions to dismiss. Проще говоря, спор о том, где заканчивается fair use для новостных архивов и где начинается обычное infringement-дело, в США всё ещё живой.

В ЕС логика иная. Здесь ключевой слой задаёт не один громкий иск, а связка из DSM Directive 2019/790 и AI Act. Статья 4 DSM Directive разрешает text and data mining для правомерно доступных произведений, если правообладатель не зарезервировал права явно, в том числе машиночитаемым способом для онлайн-контента. Именно отсюда растёт вся практическая тема с opt-out, robots.txt и машинно читаемыми запретами. Если вам нужен прикладной слой про opt-out и рабочие проверки на стороне разработчиков, он у нас разобран отдельно в материале GitHub Copilot 24 апреля: что проверить до opt-out.

Первая страница решения D.C. Circuit по делу Thaler v. Perlmutter от 18 марта 2025 года
Первая страница решения D.C. Circuit по делу Thaler v. Perlmutter. Источник: United States Court of Appeals for the District of Columbia Circuit.

AI Act решает соседнюю задачу. Regulation (EU) 2024/1689 не отвечает за всю авторско-правовую квалификацию результатов генерации. Зато статья 53 вводит для провайдеров моделей общего назначения обязанность держать policy для соблюдения права ЕС об авторском праве и смежных правах, включая reservation of rights по статье 4(3) DSM Directive, а также публиковать достаточно подробную сводку по содержанию обучающих данных. Это важное различие. AI Act не объявляет всё обучение ни автоматически разрешённым, ни автоматически незаконным. Он заставляет провайдера выстраивать прозрачность происхождения данных и контур соблюдения требований там, где раньше было удобно прятаться за общими словами.

Именно поэтому юридический блок вокруг copyright нельзя сводить к одной только странице про AI Act в ЕС. AI Act важен для прозрачности и обязанностей GPAI-провайдера, но не заменяет анализ авторства, лицензий и исключений для text and data mining.

Граница третья: где для бизнеса начинается реальный риск

Для компании спор об ИИ и авторском праве редко выглядит как академический вопрос «кто автор вообще». Обычно он приходит в трёх более приземлённых формах.

Первая форма — права на результат слабее, чем кажется. Если команда делает лендинг, баннеры, визуалы для кампании или библиотеку шаблонов почти целиком на автогенерации, потом может выясниться, что монополия на такой результат значительно тоньше, чем казалось в момент сдачи проекта. Формально материал выглядит «своим», но доказуемый человеческий вклад в него минимален.

Вторая форма связана с происхождением данных. Важен не только ответ модели и не только сходство с чужой статьёй или картинкой. Не меньшее значение имеют условия обучения модели, происхождение документов для дообучения или RAG-корпуса и то, сможете ли вы это объяснить клиенту, суду или регулятору.

Третья форма — процесс нельзя доказать. Когда спор доходит до договора или претензии, побеждает не тот, у кого красивее презентация про «работу с ИИ», а тот, кто может показать цепочку создания. Кто писал исходный текст. Кто правил. Какая модель участвовала. Какие файлы взяли из внешнего корпуса. Кто утвердил финал.

Здесь полезна аналогия из разработки. В Linux kernel свежие правила для AI-assisted code не передают ответственность модели: участие инструмента можно раскрыть, но подпись и проверка остаются за человеком. Мы подробно разбирали эту логику в материале Linux kernel AI-generated code: правила для ИИ-кода. Для контента и дизайна принцип тот же. Инструмент может помочь. Отвечает всё равно человек и организация.

Что это значит для российских команд

Российскому бизнесу сейчас опасно смотреть на тему в режиме «у нас пока нет своего AI Act, значит можно не думать». Базовая норма об авторе уже человеческая, а значит вопрос доказательства вклада никуда не исчезает. Если завтра нужно будет защищать права на текст, дизайн-концепцию, интерфейсный copy или набор маркетинговых изображений, суду и контрагенту будет важен не сам факт использования нейросети, а то, где именно был творческий труд человека.

Практически это толкает к более скучной, но полезной дисциплине: хранить черновики и версии, не выбрасывать историю правок, прописывать в договорах, кто вправе использовать модели и на каких условиях передаёт результат. Клиенту не стоит обещать «полную эксклюзивность» для сырого результата модели, если внутри процесса нет нормальной человеческой доработки.

Отдельно стоит разделять внутреннее использование и публичную публикацию. Черновик, который модель помогла ускорить внутри команды, и финальный коммерческий актив, который компания продаёт клиенту или выводит в рекламную кампанию, — это два разных уровня риска. На внутреннем уровне главное не нарушать чужие права и не тащить в модель лишние данные. На внешнем уровне ещё и нужно уметь доказать происхождение результата.

Практический чеклист перед публикацией, запуском или отгрузкой клиенту

  1. Зафиксируйте человеческий вклад. Храните не только финальный файл, но и бриф, черновики, редакторские правки, историю доработок и комментарии по отбору.
  2. Разделите сырой вывод модели и финальную версию. Если модель сгенерировала основу, отдельно покажите, что именно человек переписал, пересобрал или отредактировал.
  3. Проверьте происхождение входных данных. Для fine-tune, RAG, внутренних корпусов и загруженных архивов вопрос лицензии и источника важнее красивого демо.
  4. Сверьте юрисдикцию сделки. Для США ключевым будет разбор fair use и фактуры использования; для ЕС — ещё и opt-out, TDM и обязанности GPAI-провайдера; для России — договоры и доказательство творческого труда человека.
  5. Не обещайте клиенту больше, чем можете защитить. Формулы вроде «полностью наш авторский AI-контент» хорошо продают и плохо работают в споре.
  6. Если строите продукт для ЕС, держите рядом не только юриста по copyright, но и карту compliance по AI Act. Эти слои уже начали срастаться в один коммерческий вопрос.

Что стоит вынести

Граница между ИИ и авторским правом проходит не в одном месте, а сразу в трёх. Первая граница — человеческое авторство: кто именно придал работе охраняемую форму. Вторая — обучающие данные: на каком основании модель вообще использовала чужие произведения. Третья — операционная ответственность бизнеса: кто может доказать происхождение результата, условия использования и объём человеческой проверки.

Это неудобный вывод, потому что он не даёт магической формулы «можно» или «нельзя». Но на май 2026 года честный ответ именно такой. Если вам нужен безопасный процесс, думать придётся не только о качестве модели, но и о том, как вы документируете человеческий вклад, работу с данными и собственные обещания рынку.

Источники

Читайте также

Telegram-канал @toolarium