Desbloqueando LLMs: Dominando el Caos de la Experimentación en Línea

En un cambio revolucionario frente a prácticas tradicionales, las empresas de inteligencia artificial generativa están implementando modelos de lenguaje de gran tamaño (LLMs) directamente en el entorno impredecible de Internet para asegurar la calidad.

¿Por qué invertir tiempo en pruebas exhaustivas cuando la comunidad en línea puede identificar colectivamente errores y fallos? Este atrevido experimento invita a los usuarios a participar en una prueba beta extensa e improvisada. Cada solicitud revela las particularidades únicas de los LLMs, mientras que el vasto Internet actúa como un receptor de errores, siempre que los usuarios acepten los términos y condiciones.

Ética y Precisión: ¿Opcionales?

La prisa por liberar modelos LLM de IA generativa se asemeja a repartir fuegos artificiales: entretenido, pero potencialmente peligroso. Por ejemplo, Mistral presentó recientemente su modelo 7B bajo licencias Apache 2.0, pero la falta de restricciones explícitas de uso genera preocupaciones alarmantes sobre posibles abusos.

Ajustes menores en los parámetros subyacentes pueden llevar a resultados drásticamente diferentes. Además, los sesgos arraigados en los algoritmos y conjuntos de datos perpetúan desigualdades sociales. CommonCrawl, que proporciona la mayor parte de los datos de entrenamiento para LLMs (60% para GPT-3 y 67% para LLaMA), opera sin controles de calidad estrictos, lo que carga a los desarrolladores con la responsabilidad de la selección de datos. Es crucial reconocer y abordar estos sesgos para garantizar un despliegue ético de la IA.

Desarrollar software ético debería ser mandatorio, no opcional. Sin embargo, si los desarrolladores deciden ignorar las directrices éticas, hay pocas garantías. Así, es imperativo que los responsables de políticas y organizaciones aseguren una aplicación responsable y libre de sesgos de la inteligencia artificial generativa.

¿Quién Tiene la Responsabilidad?

El panorama legal que rodea a los LLMs es confuso, lo que a menudo lleva a preguntas críticas sobre la responsabilidad. Los términos de servicio de la IA generativa no garantizan la precisión ni aceptan responsabilidades, basándose en el criterio del usuario. Muchos usuarios interactúan con estas herramientas para aprender o trabajar, pero pueden carecer de las habilidades para distinguir información confiable de contenido ficticio.

El impacto de las inexactitudes puede extenderse al mundo real. Por ejemplo, el precio de las acciones de Alphabet cayó drásticamente después de que el chatbot Bard de Google afirmara falsamente que el Telescopio Espacial James Webb había capturado las primeras imágenes de un planeta fuera de nuestro sistema solar.

A medida que los LLMs se integran en aplicaciones de toma de decisiones significativas, surge la pregunta: si ocurren errores, ¿debería la responsabilidad recaer en el proveedor de LLM, en el proveedor de servicios que utiliza LLMs o en el usuario que no verificó la información?

Consideremos dos escenarios: el Escenario A involucra un vehículo defectuoso que provoca un accidente, mientras que el Escenario B retrata una conducción temeraria que causa el mismo resultado. Las consecuencias son desafortunadas, pero la responsabilidad varía. Con los LLMs, los errores pueden surgir de una combinación de fallos del proveedor y negligencia del usuario, complicando la rendición de cuentas.

La Necesidad de un 'No-LLM-Index'

La regla “noindex” existente permite a los creadores de contenido optar por no ser indexados por motores de búsqueda. Una opción similar, “no-llm-index”, podría empoderar a los creadores para evitar que su contenido sea procesado por LLMs. Los LLMs actuales no cumplen con la Ley de Privacidad del Consumidor de California (CCPA) ni con el derecho de eliminación del GDPR, lo que complica las solicitudes de eliminación de datos.

A diferencia de las bases de datos tradicionales, donde los datos son fáciles de identificar y eliminar, los LLMs generan salidas basadas en patrones aprendidos, lo que hace casi imposible focalizar datos específicos para su eliminación.

Navegando el Panorama Legal

En 2015, un tribunal de apelaciones de EE. UU. consideró que el escaneo de libros por parte de Google para Google Books constituía un “uso justo”, citando su naturaleza transformadora. Sin embargo, la IA generativa trasciende estos límites, provocando desafíos legales sobre la compensación a los creadores de contenido cuyo trabajo alimenta a los LLMs.

Grandes empresas como OpenAI, Microsoft, GitHub y Meta enfrentan litigios relacionados con la reproducción de código informático de software de código abierto. Los creadores de contenido en plataformas sociales deberían tener la libertad de optar por no monetizar o permitir que su trabajo sea alimentado a LLMs.

Mirando hacia el Futuro

Los estándares de calidad difieren significativamente entre sectores; por ejemplo, la aplicación Amazon Prime Music se bloquea a diario, mientras que incluso una tasa de fallos del 2% en el sector salud o servicios públicos podría ser catastrófica. Mientras tanto, las expectativas sobre el rendimiento de los LLMs siguen en cambio. A diferencia de los fallos de aplicaciones, que son fácilmente identificables, determinar cuándo la IA malfunciona o produce alucinaciones es complejo.

A medida que la IA generativa avanza, equilibrar la innovación con los derechos fundamentales sigue siendo crítico para los responsables de políticas, tecnólogos y la sociedad. Propuestas recientes del Comité Técnico de Estandarización de Seguridad de la Información Nacional de China y un decreto ejecutivo del presidente Biden instan a establecer marcos para abordar los problemas de la IA generativa.

Los desafíos no son nuevos; experiencias pasadas ilustran que, a pesar de problemas persistentes como las noticias falsas, las plataformas suelen responder de manera mínima. Los LLMs requieren conjuntos de datos amplios, a menudo obtenidos de forma gratuita en Internet. Aunque es posible seleccionar estos conjuntos de datos por calidad, definir “calidad” sigue siendo subjetivo.

La pregunta clave es si los proveedores de LLM abordarán verdaderamente estos problemas o continuarán trasladando la responsabilidad.

Prepárense; va a ser un recorrido emocionante.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles