Anthropic, una destacada startup de inteligencia artificial generativa, ha presentado recientemente una respuesta judicial desafiando las reclamaciones de infracción de derechos de autor realizadas por una coalición de editores musicales, incluidos Concord, Universal y ABKCO, contra su chatbot, Claude (ahora reemplazado por Claude 2).
En otoño de 2023, estos editores musicales iniciaron una demanda federal en Tennessee, alegando que Anthropic había extraído ilegalmente letras de canciones de internet para entrenar sus modelos de IA, reproduciendo así letras protegidas por derechos de autor en las interacciones del chatbot.
En respuesta a una moción para obtener una medida cautelar preliminar—que obligaría a Anthropic a suspender la disponibilidad de Claude—la empresa reiteró argumentos comunes en otras disputas de derechos de autor relacionados con IA. Las empresas de IA generativa, como Anthropic y OpenAI, sostienen que su uso de datos disponibles públicamente, incluyendo material protegido, se encuentra bajo el concepto de uso justo, una doctrina legal que pronto podría ser evaluada por la Corte Suprema.
Impacto Mínimo de las Letras en los Datos de Entrenamiento
Anthropic sostiene que su uso de las letras de los demandantes es "transformativo", añadiendo un nuevo propósito y carácter a las obras originales. Citando al director de investigación, Jared Kaplan, la presentación enfatiza que su objetivo es construir un conjunto de datos que eduque a una red neuronal sobre el lenguaje humano.
La empresa argumenta además que la inclusión de letras de canciones representa una "fracción minúscula" del conjunto de datos de entrenamiento, lo que hace inviables financieramente la adquisición de licencias para el extenso texto requerido para entrenar modelos como Claude. Destacan que la obtención de licencias para billones de fragmentos de datos en varios géneros es poco práctica para cualquier entidad.
Un aspecto único del argumento de Anthropic es la afirmación de que los demandantes participaron en "conducta voluntaria", estableciendo la responsabilidad directa de la infracción. En este contexto, Anthropic sugiere que los editores musicales, a través de esfuerzos dirigidos para provocar la generación de letras por parte de Claude, controlaron efectivamente la producción de contenido supuestamente infractor, desplazando la responsabilidad de Anthropic.
Discutiendo el Daño Irreparable
Además de impugnar la responsabilidad de derechos de autor, Anthropic argumenta que los demandantes no logran demostrar un daño irreparable. Afirman que no hay evidencia suficiente de disminución de ingresos por licencias desde el lanzamiento de Claude, señalando que los propios editores consideran que una compensación monetaria podría remediar cualquier daño alegado—contradiciendo así sus afirmaciones de daño irreparable.
Anthropic sostiene que la solicitud de una medida cautelar contra sus modelos de IA no está justificada dada la débil evidencia de daño irreparable. También afirman que cualquier salida lírica generada anteriormente fue un "error" no intencionado, que fue resuelto con nuevas salvaguardias implementadas para prevenir futuras ocurrencias.
La empresa asegura que la solicitud de los demandantes es excesivamente amplia, buscando restringir no solo las 500 obras específicas citadas en el caso, sino millones de obras adicionales bajo su supuesta control.
Anthropic también impugna la jurisdicción, indicando que la demanda está mal presentada en Tennessee, ya que sus operaciones están basadas en California y ninguna de las actividades alegadas ocurrió dentro de Tennessee. Sus términos de servicio estipulan que las disputas se litigarían en los tribunales de California.
La Batalla por Derechos de Autor en Curso
La lucha por los derechos de autor en el sector evolutivo de la IA generativa se está intensificando. Numerosos artistas se han unido a demandas contra modelos generativos creativos como Midjourney y DALL-E de OpenAI, aportando más pruebas de infracción de derechos de autor. Recientemente, The New York Times presentó su propia demanda contra OpenAI y Microsoft por el uso no autorizado de su contenido en la formación de modelos de IA, buscando miles de millones en daños y exigiendo la destrucción de cualquier modelo de IA que utilice su material.
En respuesta a estas tensiones, ha surgido un grupo sin fines de lucro llamado "Fairly Trained", que aboga por una certificación de datos licenciados para materiales de capacitación de IA, con el apoyo de editores musicales como Concord y Universal.
Además, grandes empresas, incluidas Anthropic, Google y OpenAI, han prometido salvaguardias legales para usuarios empresariales de contenido generado por IA. Aunque los creadores siguen firmes en sus batallas legales, incluida la demanda de Sarah Silverman contra OpenAI, los tribunales deberán navegar por las complejidades de los avances tecnológicos en contraste con los derechos establecidos.
A medida que la supervisión regulatoria se intensifica sobre las prácticas de extracción de datos, el resultado de los litigios en curso y las audiencias del Congreso pueden moldear el futuro de las protecciones de derechos de autor en el contexto de la IA generativa. Los próximos pasos son inciertos, pero la reciente presentación de Anthropic sugiere que las empresas de IA generativa se están agrupando en torno a defensas específicas basadas en el uso justo y el daño. Hasta ahora, ningún demandante de derechos de autor ha logrado ganar una medida cautelar preliminar en disputas de este tipo, y Anthropic busca mantener esta tendencia mientras se desenvuelve esta saga legal.