ИИ и авторское право: где проходит граница

Суды в США, ЕС и Китае уже вынесли первые решения по авторскому праву на AI-контент. Единой позиции нет, но контуры правил проступают.

ИИ и авторское право: где проходит граница

Художник подаёт в суд на Stability AI за использование его работ в обучающей выборке. Издательство требует от OpenAI компенсацию за тексты, на которых обучался GPT-4. Фотограф получает отказ в регистрации авторского права на изображение, сгенерированное Midjourney. К марту 2026 года таких дел — десятки, а единого правового стандарта по-прежнему нет.

Главный вопрос: кто автор?

Авторское право в большинстве юрисдикций защищает произведения, созданные человеком. Это базовый принцип, зафиксированный в Бернской конвенции 1886 года. Проблема в том, что конвенция не предполагала ситуации, когда произведение создаёт алгоритм по запросу человека.

В США Copyright Office в феврале 2023 года отменил регистрацию авторского права на комикс «Zarya of the Dawn», частично созданный с помощью Midjourney. Текст и компоновка страниц получили защиту — их создал человек. Отдельные изображения — нет, потому что «автор не контролировал конкретный результат генерации».

К 2026 году позиция Copyright Office уточнилась: если человек вносит «достаточный творческий вклад» в финальное произведение, авторское право распространяется на произведение в целом. Но определение «достаточного вклада» остаётся размытым и решается case-by-case.

Судебные прецеденты: три ключевых дела

Thaler v. Perlmutter (США, 2023). Стивен Талер попытался зарегистрировать авторское право на изображение, полностью созданное его системой DABUS без человеческого участия. Суд отказал: «Авторское право требует человеческого авторства. Это не формальность — это конституционное требование». Решение устояло в апелляции.

Getty Images v. Stability AI (Великобритания, 2024–2025). Getty подал иск за использование 12 миллионов фотографий из своей базы для обучения Stable Diffusion без лицензии. Дело не завершено, но промежуточные решения суда признали, что копирование защищённых изображений для обучения модели может нарушать авторское право — даже если модель не воспроизводит конкретные изображения.

New York Times v. OpenAI (США, 2024–2026). Крупнейшее медийное дело: The New York Times подал иск на миллиарды долларов, утверждая что ChatGPT обучен на их статьях и может воспроизводить их почти дословно. OpenAI заявила о fair use. К марту 2026 года дело находится в стадии discovery, но уже повлияло на индустрию — крупные издательства массово заключают лицензионные соглашения с AI-компаниями.

Позиция ЕС: AI Act и авторское право

Европейский союз пошёл дальше всех в регулировании. AI Act, вступивший в силу в 2024 году, устанавливает обязанность разработчиков генеративного ИИ раскрывать информацию об обучающих данных. Если в обучающей выборке использовались защищённые произведения, правообладатель может потребовать компенсацию или запретить использование.

Директива об авторском праве на едином цифровом рынке (2019) содержит исключение для text and data mining — интеллектуального анализа текста и данных. Но это исключение работает только для научных исследований и не распространяется на коммерческое обучение AI-моделей, если правообладатель явно запретил такое использование (opt-out).

Практические последствия: европейские компании, обучающие генеративные модели, обязаны либо получать лицензии, либо доказывать, что использовали только данные без opt-out ограничений. Robots.txt и аналогичные механизмы получили юридический вес.

Россия: правовой вакуум с оговорками

Российское законодательство об авторском праве (часть IV Гражданского кодекса) не упоминает искусственный интеллект. Автором может быть только физическое лицо. Произведение, созданное ИИ без творческого участия человека, формально не подлежит правовой охране.

Минэкономразвития в 2024 году опубликовало концепцию регулирования ИИ, где предложило два подхода: признание авторского права за оператором ИИ-системы (тот, кто задаёт промпт и параметры) или создание нового вида смежных прав для AI-генерированного контента.

К марту 2026 года законопроект не принят. На практике российские компании, использующие GigaChat или YandexGPT для генерации контента, работают в правовой неопределённости. Судебных прецедентов по AI-авторству в российских судах к этому моменту нет.

Обучающие данные: право на отказ

Отдельный пласт проблем — права авторов на контроль использования их произведений для обучения. Здесь сформировались два подхода.

Opt-out (ЕС, Япония). Обучение на защищённых данных допустимо по умолчанию, но автор может запретить. Механизм: robots.txt, специальные метатеги, реестры запретов. Проблема — многие авторы не знают о такой возможности или не имеют технических средств для реализации.

Opt-in (позиция правообладателей). Использование защищённых произведений для обучения требует явного согласия и, как правило, оплаты. Этого добиваются крупные издательства, фотобанки, музыкальные лейблы. Ни одна юрисдикция пока не закрепила opt-in как обязательное требование, но лицензионные сделки между AI-компаниями и правообладателями фактически создают такую практику.

Практические последствия для бизнеса

Компании, использующие генеративный ИИ для создания контента, сталкиваются с конкретными рисками.

Риск нарушения авторских прав третьих лиц. Если модель воспроизводит фрагменты обучающих данных (а это документально подтверждено для GPT и Stable Diffusion), пользователь модели может непреднамеренно нарушить чужие права. OpenAI, Google и Microsoft предлагают indemnity clauses — берут на себя ответственность за такие нарушения для корпоративных клиентов. Для малого бизнеса и индивидуальных пользователей такой защиты нет.

Риск отсутствия защиты. Если контент, созданный с помощью ИИ, не получает авторско-правовой охраны, конкуренты могут копировать его без последствий. Для компаний, инвестирующих в создание AI-контента, это означает невозможность защитить свои инвестиции.

Репутационный риск. Публикация AI-генерированного контента без раскрытия этого факта вызывает негативную реакцию аудитории, особенно в журналистике и образовании. Несколько крупных медиа пережили скандалы после того, как читатели обнаружили AI-тексты под именами реальных журналистов.

Что делать прямо сейчас

Для авторов и правообладателей: размещать opt-out указания на своих ресурсах, отслеживать использование своих произведений в AI-системах, фиксировать факты создания произведений (таймстампы, черновики, процесс работы).

Для пользователей ИИ: документировать свой творческий вклад в AI-генерированный контент, не выдавать полностью сгенерированные произведения за собственные, отслеживать лицензионные условия используемых моделей. При использовании AI-контента в коммерческих целях — консультироваться с юристом в своей юрисдикции.

Правовая ситуация вокруг ИИ и авторского права меняется быстрее, чем обновляются законы. Единственная устойчивая стратегия — относиться к AI-контенту как к зоне повышенного правового риска и действовать соответственно.