En los últimos años, el avance rápido de las tecnologías de IA ha dado lugar a una explosión de contenido generado por inteligencia artificial, incluyendo imágenes, videos y textos hiperrealistas. Sin embargo, este aumento también ha suscitado preocupaciones significativas sobre la desinformación y la engañación, complicando nuestra capacidad para distinguir entre la realidad y la ficción.
La inquietud de que estamos siendo sobrepasados por contenido sintético es justificada. Desde 2022, los usuarios de IA han creado colectivamente más de 15 mil millones de imágenes. Para contextualizar, esta cifra impresionante representa lo que a la humanidad le tomó 150 años producir antes de 2022.
El volumen de contenido generado por IA plantea desafíos que apenas comenzamos a entender. Los historiadores pronto podrían necesitar ver la internet post-2023 como fundamentalmente diferente a lo anterior, similar a cómo el desarrollo de la bomba atómica impactó el campo de la datación por carbono radiactivo. Aumentan las búsquedas de imágenes en Google que devuelven resultados generados por IA, y se están identificando erróneamente incidentes de supuestos crímenes de guerra en el conflicto Israel/Gaza como creaciones de IA cuando no lo son.
Incorporación de Firmas en el Contenido de IA
Los deepfakes, creados mediante algoritmos de aprendizaje automático, producen contenido falso que imita expresiones y voces humanas. La reciente presentación de Sora, el modelo de texto a video de OpenAI, resalta cuán rápidamente la realidad virtual se está volviendo indistinguible de la realidad física. Ante estas crecientes preocupaciones, las grandes tecnológicas están tomando medidas para mitigar el posible uso indebido del contenido generado por IA.
En febrero, Meta introdujo iniciativas para etiquetar imágenes creadas con sus herramientas de IA en plataformas como Facebook, Instagram y Threads. Esto incluye marcas visibles, marcas de agua invisibles y metadatos detallados para indicar sus orígenes artificiales. Siguiendo su ejemplo, Google y OpenAI anunciaron medidas similares para incorporar "firmas" dentro del contenido generado por IA.
Estas iniciativas cuentan con el apoyo de la Coalición por la Proveniencia y Autenticidad del Contenido (C2PA), cuyo objetivo es rastrear el origen de los archivos digitales y diferenciar entre contenido genuino y manipulado. Aunque estos esfuerzos fomentan la transparencia y la responsabilidad en la creación de contenido, la pregunta sigue siendo: ¿son suficientes para proteger contra el posible uso indebido de esta tecnología en evolución?
¿Quién Define lo que es Real?
Surge un problema crítico con la implementación de herramientas de detección: ¿pueden ser efectivas universalmente sin ser explotadas por quienes tienen acceso? Esto lleva a la pregunta urgente: ¿quién tiene la autoridad para definir la realidad? Comprender esto es esencial antes de que podamos abordar genuinamente el potencial del contenido generado por IA.
El Edelman Trust Barometer 2023 revela un escepticismo público significativo respecto a la gestión de innovaciones tecnológicas por parte de las instituciones. El informe indica que, a nivel mundial, la gente es casi el doble de propensa a creer que la innovación está mal gestionada (39%) en comparación con quienes creen que está bien gestionada (22%). Muchos expresan preocupaciones sobre la velocidad del cambio tecnológico y sus implicaciones para la sociedad.
Este escepticismo se ve agravado por la observación de que, a medida que las contramedidas mejoran, también evolucionan los desafíos que buscan abordar. Reconstruir la confianza pública en la innovación tecnológica es crucial para que las medidas de marcas de agua sean efectivas.
Como hemos visto, alcanzar esta confianza no es tarea fácil. Por ejemplo, Google Gemini enfrentó críticas por sesgos en la generación de imágenes, lo que llevó a la compañía a una situación embarazosa. Las disculpas posteriores destacan el impacto duradero de tales incidentes en la percepción pública.
Necesidad de Transparencia en Tecnología
Recientemente, un video con la CTO de OpenAI, Mira Murati, se volvió viral después de que no pudo especificar los datos utilizados para entrenar a Sora. Dada la importancia de la calidad de los datos, es preocupante que una CTO no pudiera proporcionar claridad sobre los datos de entrenamiento. Su desestimación de preguntas de seguimiento levantó más banderas rojas, sugiriendo que la transparencia debe ser prioritaria en la industria tecnológica.
De cara al futuro, establecer estándares para la transparencia y la coherencia es imperativo. La educación pública sobre herramientas de IA, prácticas claras de etiquetado y la rendición de cuentas por fallos son componentes críticos para fomentar un entorno de confianza. La comunicación sobre los problemas que surjan también es esencial.
Sin estas medidas, la marca de agua podría servir simplemente como una solución superficial, sin abordar los desafíos fundamentales de la desinformación y la disminución de la confianza en el contenido artificial. Como se ha visto en eventos actuales, la interferencia electoral por deepfakes ya está surgiendo como un problema significativo en el mundo de la IA generativa. Con una porción sustancial de la población global acudiendo a las urnas, abordar este problema es vital para el futuro de la autenticidad del contenido.