OpenAI lanzará la herramienta Media Manager en 2025, permitiendo a los creadores bloquear el entrenamiento de IA.

OpenAI ha anunciado varias actualizaciones importantes hoy, siendo la más notable el próximo "Media Manager", que se lanzará en 2025. Esta herramienta innovadora permitirá a los creadores gestionar su contenido, especificando qué obras pueden ser utilizadas para el entrenamiento de IA y cuáles deben permanecer excluidas.

Según un blog en el sitio web de OpenAI, Media Manager está diseñado para:

"Permitir a los creadores y propietarios de contenido identificar lo que poseen y dictar cómo deben usarse sus obras en la investigación de aprendizaje automático. Nuestro objetivo es integrar características adicionales con el tiempo."

Esta herramienta pionera aprovechará investigaciones avanzadas de aprendizaje automático para identificar textos, imágenes, audios y videos protegidos por derechos de autor en diversas plataformas, asegurando que se respeten las preferencias de los creadores. OpenAI trabaja estrechamente con creadores, propietarios de contenido y reguladores durante su desarrollo, con la meta de establecer estándares industriales para 2025.

Aunque los detalles de precios aún no están disponibles, se anticipa que la herramienta será gratuita, ya que OpenAI se posiciona como un líder ético en el desarrollo de IA.

Por qué Media Manager es Esencial

Media Manager tiene como objetivo mejorar las protecciones para los creadores contra el raspado no autorizado de datos por IA, yendo más allá del método anterior de configurar un archivo robots.txt (“User-agent: GPTBot Disallow: /”), que OpenAI implementó en agosto de 2023. Muchos creadores comparten su trabajo en plataformas que no controlan, como DeviantArt y Patreon, limitando su capacidad para ajustar la configuración de acceso. Además, algunos pueden querer excluir solo obras específicas del raspado de datos, y Media Manager proporcionará el control granular necesario.

OpenAI reconoce que las soluciones actuales son insuficientes, ya que muchos creadores no controlan dónde aparece su contenido y cómo se utiliza en línea. "Reconocemos que estas son soluciones incompletas," menciona el blog, subrayando la necesidad de una forma más eficiente para que los propietarios de contenido comuniquen sus preferencias sobre el uso de IA.

Abordando Críticas sobre el Raspado de Datos de IA

Esta iniciativa responde a las preocupaciones continuas de artistas visuales y creadores de contenido sobre empresas de IA, incluido OpenAI, que raspan datos sin permiso o compensación. Numerosos creadores han presentado demandas colectivas alegando infracción de derechos de autor contra estas empresas de IA.

OpenAI argumenta que el rastreo y el raspado web han sido prácticas históricamente aceptadas en internet, citando la adopción generalizada del estándar robots.txt para guiar a los rastreadores web sobre lo que puede ser accesible.

A pesar de esto, muchos artistas ahora se oponen al entrenamiento de IA generativa en sus obras, ya que compite directamente con sus medios de vida. OpenAI también ha introducido indemnizaciones para sus suscriptores de pago que enfrentan reclamaciones por derechos de autor, con el objetivo de tranquilizar a sus clientes empresariales.

Contexto Legal e Implicaciones Futuras

El marco legal que rodea el raspado de datos de IA de material protegido por derechos de autor sigue evolucionando. Sin embargo, independientemente del resultado legal, OpenAI parece centrarse en presentarse como una entidad ética ante los creadores de contenido.

Muchos creadores pueden considerar que estos esfuerzos son insuficientes, dado que su trabajo probablemente ya ha sido utilizado para entrenar modelos de IA sin su consentimiento. OpenAI sostiene que no almacena copias completas de los datos raspados; en su lugar, afirma generar modelos basados en relaciones y procesos relacionados con los datos de entrada.

Como señala OpenAI, "Nuestros modelos de IA son máquinas de aprendizaje, no bases de datos. Están diseñados para crear nuevo contenido e ideas, no para replicar contenido existente. Cuando los modelos ocasionalmente repiten contenido expresivo, resulta de las limitaciones del proceso de aprendizaje automático."

Media Manager tiene el potencial de ser una solución más amigable para controlar el entrenamiento de IA en comparación con métodos existentes como Glaze y Nightshade. Sin embargo, la confianza en la herramienta, especialmente dada la implicación de OpenAI, y su eficacia contra modelos rivales todavía está por verse.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles