Fairly Trained Lanza Certificación para IA Ética: Asegurando que las Herramientas Generativas Utilicen Datos Licenciados

A menudo se le denomina el "pecado original" de la IA generativa: muchos de los modelos líderes de empresas como OpenAI y Meta han sido entrenados con datos obtenidos de Internet sin el consentimiento o conocimiento previo de los creadores originales.

Las empresas de IA que defienden esta práctica argumentan que es legalmente permisible. OpenAI afirma en una reciente publicación de blog: "Entrenar modelos de IA utilizando materiales disponibles públicamente en Internet es un uso legítimo, respaldado por precedentes históricos. Creemos que este principio es justo para los creadores, necesario para los innovadores y crítico para la competitividad de EE. UU."

Este scraping de datos tiene una trayectoria anterior al auge de la IA generativa, habiéndose utilizado en muchas bases de datos de investigación y productos comerciales, incluidas populares motores de búsqueda como Google, que los creadores utilizan para generar tráfico hacia sus proyectos.

Sin embargo, la oposición a esta práctica está en aumento, con numerosos autores y artistas demandando a varias empresas de IA por presuntamente infringir derechos de autor al entrenar con su trabajo sin consentimiento explícito. Destacan Midjourney y OpenAI entre las compañías bajo la mira.

Una nueva organización sin fines de lucro, “Fairly Trained”, ha surgido para abogar por los creadores de datos, insistiendo en que se debe obtener consentimiento explícito antes de usar su trabajo en el entrenamiento de IA. Co-fundada por el ex empleado de Stability AI, Ed Newton-Rex, Fairly Trained busca asegurarse de que las empresas de IA respeten los derechos de los creadores.

"Creemos que muchos consumidores y empresas preferirían colaborar con empresas de IA generativa que entrenan con datos proporcionados con el consentimiento de sus creadores", indica el sitio web de la organización.

Newton-Rex enfatiza un camino a seguir para la IA generativa que respete a los creadores, abogando por un modelo de licenciamiento para los datos de entrenamiento. "Si trabajas o conoces una empresa de IA generativa que prioriza este enfoque, espero que consideres obtener la certificación", compartió en redes sociales.

Cuando se le preguntó sobre el argumento común de los defensores de la IA que sostiene que entrenar con datos disponibles públicamente es similar al aprendizaje humano a partir de obras creativas, Newton-Rex respondió: "Este argumento es erróneo por dos razones. Primero, la IA se escala. Una sola IA puede generar vastas cantidades de contenido que podrían reemplazar la demanda por gran parte del contenido original, algo que ningún ser humano puede hacer. Segundo, el aprendizaje humano opera dentro de un contrato social establecido; los creadores siempre han sabido que su trabajo podría inspirar a otros. No anticipaban que los sistemas de IA aprovecharan sus creaciones para generar contenido competidor a gran escala."

Newton-Rex aconseja a las empresas de IA que ya han entrenado con datos disponibles públicamente que transiten a un modelo de licenciamiento, obteniendo permiso de los creadores. "Estamos aún en las primeras etapas de la evolución de la IA generativa, y hay tiempo para crear un ecosistema mutuamente beneficioso para los creadores humanos y las empresas de IA", observó.

Fairly Trained ha introducido una “certificación de Modelo Licenciado (L) para proveedores de IA” para distinguir entre empresas que obtienen consentimiento para los datos de entrenamiento y aquellas que no lo hacen. El proceso de certificación implica una presentación en línea seguida de una revisión más profunda, con tarifas basadas en los ingresos anuales, que van de $150 a $6,000.

Newton-Rex explicó: "Cobramos tarifas para cubrir nuestros costos, y son lo suficientemente bajas como para no ser prohibitivas para las empresas de IA generativa". Varias empresas, incluidas Beatoven.AI y Soundful, ya han recibido esta certificación, aunque Newton-Rex declinó divulgar los montos específicos de las tarifas.

Al preguntar sobre empresas como Adobe y Shutterstock que entrenan modelos de IA utilizando obras de creadores bajo sus términos de servicio, afirmó: “Preferimos no comentar sobre modelos específicos que no hemos certificado. Si creen que sus modelos cumplen con nuestros estándares de certificación, están invitados a aplicar”.

Los asesores de Fairly Trained incluyen a Tom Gruber, ex jefe de tecnología de Siri, y Maria Pallante, presidenta y CEO de la Asociación de Editores Americanos. Los apoyos incluyen notables organizaciones como la Asociación de Editores de Música Independientes y Universal Music Group, ambas involucradas en demandas contra la empresa de IA Anthropic por letras de canciones con derechos de autor.

Cuando se le preguntó si Fairly Trained estaba participando en alguna demanda pendiente, Newton-Rex aclaró: "No, no estoy involucrado en ninguna de las demandas." También confirmó que actualmente no hay fuentes de financiamiento externo para Fairly Trained, además de las tarifas de certificación.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles