OpenAI представит инструмент Media Manager в 2025 году, который позволит создателям заблокировать обучение ИИ.

OpenAI сегодня анонсировала несколько значительных обновлений, самое заметное из которых — предстоящий запуск "Media Manager" в 2025 году. Этот инновационный инструмент позволит создателям управлять своим контентом, определяя, какие работы могут быть использованы для AI-обучения, а какие следует исключить.

Как указано в блоге на сайте OpenAI, Media Manager создан для того, чтобы:

"Позволить создателям и владельцам контента определить, что они владеют, и диктовать, как их работы должны использоваться в исследованиях машинного обучения. Мы планируем интегрировать дополнительные функции со временем."

Этот передовой инструмент будет использовать усовершенствованные исследования машинного обучения для идентификации защищенных авторским правом текстов, изображений, аудио и видео на различных платформах, обеспечивая уважение к предпочтениям создателей. OpenAI тесно сотрудничает с создателями, владельцами контента и регулирующими органами на протяжении всего процесса разработки, стремясь установить отраслевые стандарты к 2025 году.

Хотя информация о ценах еще не доступна, ожидается, что инструмент будет бесплатным, поскольку OpenAI позиционирует себя в качестве этичного лидера в области разработки AI.

Почему Media Manager важен

Media Manager предназначен для повышения защиты создателей от несанкционированного сбора данных AI, выходя за рамки предыдущего метода настройки файла robots.txt (“User-agent: GPTBot Disallow: /”), который OpenAI внедрила в августе 2023 года. Многие создатели размещают свои работы на платформах, которые они не контролируют, таких как DeviantArt и Patreon, что ограничивает их возможности по настройке доступа. Более того, некоторые могут желать исключить только определенные работы из сбора данных, и Media Manager обеспечит необходимый уровень контроля.

OpenAI признает, что существующие решения недостаточны, поскольку многие создатели не имеют контроля над тем, где и как используется их контент в интернете. "Мы понимаем, что это неполные решения", — говорится в блоге, подчеркивающем необходимость более эффективного способа для владельцев контента сообщать о своих предпочтениях относительно использования AI.

Ответ на критику сбора данных AI

Эта инициатива является ответом на продолжающиеся опасения визуальных художников и создателей контента по поводу того, что компании AI, включая OpenAI, собирают данные без разрешения или компенсации. Многие создатели подали групповые иски, утверждая о нарушении авторских прав против этих AI-фирм.

OpenAI утверждает, что веб-сканирование и сбор данных исторически считались принятыми практиками в интернете, ссылаясь на широкое использование стандарта robots.txt для указания веб-сканерам, что может быть доступно.

Тем не менее, многие художники сейчас выступают против обучения генеративного AI на основе их работ, так как это напрямую конкурирует с их заработком. OpenAI также ввела защиту для своих платных подписчиков, сталкивающихся с претензиями о нарушении авторских прав, чтобы успокоить клиентов из сферы бизнеса.

Юридический контекст и будущие последствия

Юридическая база, касающаяся сбора данных AI с защищенными материалами, все еще развивается. Однако, независимо от юридического исхода, OpenAI сосредоточена на том, чтобы представить себя этичной сущностью в вопросах создателей контента.

Многие создатели могут считать эти усилия недостаточными, учитывая, что их работы уже могли быть использованы для обучения моделей AI без согласия. OpenAI утверждает, что не хранит полные копии собранных данных; вместо этого она заявляет, что создает модели, основываясь на взаимосвязях и процессах, связанных с входными данными.

Как заявляет OpenAI, "Наши AI-модели — это машины обучения, а не базы данных. Они предназначены для создания нового контента и идей, а не для воспроизведения существующего контента. Когда модели иногда повторяют выразительный контент, это результат ограничений процесса машинного обучения."

Media Manager предлагает более удобное решение для контроля за обучением AI по сравнению с существующими методами, такими как Glaze и Nightshade. Однако доверие к инструменту, особенно учитывая участие OpenAI, и его эффективность против конкурентных моделей еще предстоит проверить.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles