La inteligencia artificial (IA) se convirtió en un tema destacado en Davos 2024, con más de dos docenas de sesiones centradas en sus implicaciones, desde la educación hasta la regulación, según destaca Fortune. Entre los asistentes se encontraban destacados líderes de IA, como Sam Altman, CEO de OpenAI; Mustafa Suleyman, CEO de Inflection AI; Andrew Ng, pionero de la IA; Yann LeCun, científico jefe de IA de Meta; y Aidan Gomez, CEO de Cohere.
La discusión en Davos experimentó un cambio significativo respecto a la especulación entusiasta del 2023. Como mencionó Chris Padilla, VP de asuntos gubernamentales y regulatorios de IBM, en una entrevista con The Washington Post: “El año pasado, había asombro; ahora se trata de evaluar riesgos y asegurar la fiabilidad de la IA.”
Las principales preocupaciones del evento incluían el potencial de desinformación desenfrenada, el desplazamiento laboral y una creciente brecha económica entre naciones ricas y empobrecidas. El problema más urgente parecía ser el aumento de la desinformación facilitada por la tecnología de deepfake: fotos, videos y audio manipulados que pueden distorsionar la realidad y socavar la confianza pública. Un incidente reciente, que tuvo lugar antes de las primarias de New Hampshire, involucró llamadas automáticas que imitaban la voz del presidente Joe Biden, ejemplificando esta amenaza.
Como señaló la profesora de la Universidad Carnegie Mellon, Kathleen Carley: “Esto es solo la punta del iceberg en términos de posible supresión de votantes o ataques a la integridad electoral.” El consultor de IA empresarial Reuven Cohen también advirtió que los avances en IA podrían llevar a un aumento del contenido deepfake durante las elecciones de 2024.
A pesar de la investigación en curso, un método fiable para detectar deepfakes sigue siendo esquivo. Según Jeremy Kahn en Fortune: “Necesitamos una solución rápidamente; la desconfianza es perjudicial para la democracia.” Este cambio de enfoque, de optimismo a cautela, llevó a Suleyman a abogar por una “estrategia de guerra fría” para abordar las amenazas relacionadas con la IA. Subrayó que, a medida que las tecnologías de IA se vuelven más accesibles, podrían ser mal utilizadas por entidades hostiles, provocando un caos que supera los esfuerzos de verificación.
Las preocupaciones en torno a la IA han persistido durante décadas, retratadas notablemente en la película de 1968 “2001: Una odisea en el espacio.” Incluso tecnologías de consumo, como el juguete Furby, han generado alarmas sobre vulnerabilidades de seguridad, llevando a la NSA a prohibirlos por temor a que pudieran funcionar como dispositivos de vigilancia.
La conversación se ha intensificado con predicciones de que la Inteligencia Artificial General (IAG) podría lograrse pronto. Aunque la IAG—definida como IA que supera la inteligencia humana en diversas tareas—sigue siendo un tema polémico, figuras como Altman y Gomez expresan optimismo sobre su llegada inminente, mientras que otros, incluido LeCun, instan a la cautela, argumentando que aún se requieren avances significativos.
El sentimiento público hacia la IA es mixto. Según el Barómetro de Confianza Edelman 2024, el 35% de los encuestados rechaza la IA, mientras que el 30% la acepta. La conciencia sobre los beneficios potenciales de la IA se ve atenuada por la preocupación por sus riesgos. La gente es más favorable a aceptar los avances en IA cuando son guiados por expertos y se les asegura un control sobre sus implicaciones.
En última instancia, el camino hacia adelante no solo implica respuestas rápidas ante los desarrollos de IA, sino una visión equilibrada de las consecuencias a largo plazo. Como dijo Roy Amara: “Tendemos a sobreestimar el efecto de una tecnología a corto plazo y subestimar su impacto a largo plazo.”
A pesar de la exploración continua, el éxito generalizado en IA no está garantizado. Rumman Chowdhury, CEO de la organización sin fines de lucro Humane Intelligence, predijo un inminente “valle de desilusión” en 2024, donde las expectativas pueden no alinearse con la realidad.
Este año podría ser crucial para evaluar el potencial transformador de la IA. A medida que las organizaciones exploran la IA generativa para uso personal y profesional, es fundamental conectar la emoción tecnológica con un valor tangible. Según Julie Sweet, CEO de Accenture, los talleres que ahora se ofrecen a líderes de alta dirección representan pasos esenciales hacia la realización del potencial de la IA.
Mientras navegamos por el complejo panorama de la IA, la toma de decisiones prudente y el pensamiento innovador serán clave para garantizar que la IA amplifique el potencial humano y mantenga nuestros valores e integridad compartidos. La responsabilidad recae en nosotros para moldear un futuro donde la IA mejore la experiencia humana en lugar de dictarla.