Компания Anthropic, ведущий стартап в области генеративного ИИ, недавно подала судебный ответ на обвинения в нарушении авторских прав, выдвинутые коалицией музыкальных издателей, включая Concord, Universal и ABKCO, против ее чат-бота Claude (который теперь заменен на Claude 2).
Осенью 2023 года эти музыкальные издатели инициировали федеральный иск в Теннесси, утверждая, что Anthropic незаконно собрала текст песен из интернета для обучения своих ИИ-моделей, тем самым воспроизводя охраняемые авторскими правами тексты в общении с чат-ботом.
В ответ на ходатайство о предварительном запрете, которое могло бы остановить доступ к Claude, Anthropic повторила аргументы, характерные для других споров о авторских правах в области ИИ. Генеративные ИИ-компании, такие как Anthropic и OpenAI, утверждают, что их использование общедоступных данных, включая защищенный контент, подпадает под понятие добросовестного использования, правовая природа которого вскоре может быть проверена в Верховном суде.
Минимальное влияние текстов песен на обучающие данные
Anthropic настаивает на том, что использование текстов песен истцов является "трансформативным", добавляя новую цель и характер к оригинальным произведениям. Ссылаясь на директора по исследованиям Джареда Каплана, компания подчеркивает, что их цель — создать набор данных, который обучает нейронную сеть человеческому языку.
Компания также утверждает, что включение текстов песен составляет "минорную долю" от общего объема обучающих данных, что делает финансово нецелесообразным получение лицензий на обширный текст, необходимый для обучения моделей, таких как Claude. Они подчеркивают, что комплексное лицензирование триллионов данных по различным жанрам является непрактичным для любой организации.
Уникальность аргумента Anthropic заключается в утверждении, что истцы engaged in "volitional conduct", что устанавливает прямую ответственность за нарушение. В этом контексте Anthropic предполагает, что музыкальные издатели, через целенаправленные усилия по провокации текстового контента от Claude, фактически контролировали генерацию предполагаемого нарушающего контента, смещая ответственность с Anthropic.
Оспаривание непоправимого ущерба
Кроме того, бросая вызов ответственности за авторские права, Anthropic утверждает, что истцы не смогли доказать непоправимый ущерб. Они утверждают, что недостаточно доказательств снижения лицензионных доходов с момента запуска Claude, подчеркивая, что сами издатели считают, что денежная компенсация может устранить любой предполагаемый ущерб—что противоречит их заявлениям о непоправимом ущербе.
Anthropic убеждена, что требование об injunction против их моделей ИИ является необоснованным, учитывая слабые доказательства непоправимого ущерба. Они также утверждают, что любые ранее сгенерированные текстовые выходы были непреднамеренной "ошибкой", которая была устранена за счет внедрения новых мер безопасности для предотвращения подобных случаев в будущем.
Компания утверждает, что требование истцов слишком обширно, так как касается не только конкретных 500 произведений, упомянутых в деле, но и миллионов дополнительных работ, находящихся под их контролем. Anthropic также оспаривает юрисдикцию, утверждая, что иск неправомерно подан в Теннесси, так как их деятельность базируется в Калифорнии, а ни одно из предполагаемых действий не произошло в Теннесси. Их условия обслуживания четко указывают, что споры будут рассматриваться в судах Калифорнии.
Текущая борьба за авторские права
Борьба за авторские права в развивающемся секторе генеративного ИИ усиливается. Множество артистов присоединились к искам против творческих генеративных моделей, таких как Midjourney и DALL-E от OpenAI, предоставляя дополнительные доказательства нарушения авторских прав. Недавно The New York Times подала иск против OpenAI и Microsoft за использование своего контента без разрешения в обучении ИИ моделей, требуя миллиардные компенсации и уничтожения всех ИИ моделей, использующих ее материал.
В ответ на эти напряженности появилась некоммерческая группа "Fairly Trained", выступающая за сертификацию лицензированных данных для материалов, используемых в обучении ИИ, с поддержкой от музыкальных издателей, таких как Concord и Universal.
Кроме того, крупнейшие компании, включая Anthropic, Google и OpenAI, обещали юридические гарантии пользователям ИИ-контента для предприятий. Хотя создатели остаются решительными в своих юридических баталиях, включая дело Сары Силверман против OpenAI, судебные органы должны будут разобраться в сложностях технологических достижений и статутных прав.
С увеличением регуляторного контроля над практикой сбора данных результаты текущих исков и слушаний в Конгрессе могут определить будущее защиты авторских прав в условиях генеративного ИИ. Следующие шаги остаются неопределенными, но недавняя подача Anthropic предполагает, что компании генеративного ИИ объединяются вокруг конкретных защит добросовестного использования и основанных на ущербе. На данный момент ни один истец по авторским правам не смог успешно получить предварительный запрет в таких спорах по ИИ, и Anthropic стремится поддерживать эту тенденцию по мере развития этой юридической саги.