En una publicación de hoy, Meta anunció planes para identificar y etiquetar contenido generado por inteligencia artificial en Facebook, Instagram y Threads, aunque advirtió que "aún no es posible identificar todo el contenido generado por IA". Este anuncio sigue a la reciente difusión viral de deepfakes pornográficos de la cantante Taylor Swift en Twitter, lo que provocó una fuerte reacción de fanáticos, legisladores y medios de comunicación a nivel mundial. Esto surge en un momento crítico, ya que Meta enfrenta un creciente escrutinio para gestionar imágenes generadas por IA y videos manipulados antes de las elecciones estadounidenses de 2024.
Nick Clegg, presidente de asuntos globales de Meta, afirmó que "estos son los primeros días para la propagación de contenido generado por IA". Señaló que a medida que el uso de la IA crece, "la sociedad participará en debates sobre cómo identificar contenido sintético y no sintético". Clegg enfatizó que Meta continuará monitoreando los desarrollos, colaborando con pares de la industria y manteniendo diálogos con gobiernos y la sociedad civil.
Las iniciativas de Meta están alineadas con las mejores prácticas de la industria, como lo demuestra su asociación con el Partnership on AI (PAI) para establecer estándares en la identificación de contenido generado por IA. La plataforma planea etiquetar imágenes subidas por usuarios en sus servicios cuando detecte indicadores estándar de generación por IA. Desde el lanzamiento de su servicio de imágenes generadas por IA, las imágenes fotorealistas creadas con Meta AI han sido etiquetadas como "Imaginadas con IA".
Clegg destacó que los métodos actuales de Meta representan la vanguardia de las capacidades técnicas. "Estamos trabajando arduamente en clasificadores para detectar automáticamente contenido generado por IA, incluso en ausencia de marcadores invisibles," añadió, mientras se esfuerza por asegurar marcas de agua invisibles contra su eliminación o alteración.
Este anuncio es parte de los esfuerzos más amplios de Meta para identificar y etiquetar eficazmente el contenido generado por IA, utilizando técnicas como marcas de agua invisibles. En julio de 2023, siete empresas tecnológicas se comprometieron a tomar medidas concretas para mejorar la seguridad de la IA, incluyendo el uso de marcas de agua, mientras que Google DeepMind lanzó una versión beta de SynthID, que incrusta marcas de agua digitales imperceptibles directamente en las imágenes.
Sin embargo, los expertos advierten que la marca de agua digital, ya sea visible u oculta, no es infalible. Un profesor de informática de la Universidad de Maryland señaló: "No tenemos ninguna marca de agua confiable en este momento — hemos roto todas ellas". Feizi y su equipo demostraron la facilidad con la que actores malintencionados pueden eliminar marcas de agua o agregarlas falsamente a imágenes creadas por humanos, lo que genera contenido etiquetado incorrectamente.
Margaret Mitchell, científica jefe de ética en Hugging Face, enfatizó que si bien las marcas de agua invisibles no son una solución definitiva para identificar contenido generado por IA, sirven como herramientas valiosas para los creadores legítimos que buscan una forma de "etiqueta de nutrición" para el contenido de IA. Destacó la importancia de entender la procedencia del contenido: "Conocer la ascendencia de dónde proviene el contenido y cómo ha evolucionado es crucial para rastrear el crédito de consentimiento y compensación."
Mitchell expresó entusiasmo por el potencial de las tecnologías de marcas de agua, reconociendo que aunque existen deficiencias en la IA, la tecnología en general tiene un gran futuro. "Es esencial reconocer el panorama general en medio de las recientes discusiones sobre las capacidades de la IA," concluyó.