Tres días después del inesperado despido de Sam Altman como CEO de OpenAI, la comunidad de inteligencia artificial quedó sumida en la confusión y la incertidumbre. En medio de este tumulto, el magnate tecnológico Elon Musk planteó una pregunta crucial al Científico Jefe de OpenAI, Ilya Sutskever, en X (anteriormente Twitter): “¿Por qué tomaron una acción tan drástica? Si OpenAI está haciendo algo potencialmente peligroso para la humanidad, el mundo necesita saberlo”.
Sutskever, quien jugó un papel significativo en la salida de Altman, expresó su preocupación por la rápida comercialización de la tecnología de OpenAI. Solo unos meses antes, la organización logró un avance significativo que les permitió desarrollar modelos de IA más potentes, según informó The Information. Este avance generó alarmas en Sutskever y en la Junta de la organización sin fines de lucro, quienes temían que las medidas de seguridad existentes no fueran suficientes para proteger contra las implicaciones de estos modelos avanzados. En su opinión, la única solución viable era destituir a Altman, visto como el motor detrás de esta acelerada comercialización.
Este avance, conocido como Q* (o Q-star), representó un hito técnico crucial en el desarrollo de IA, permitiendo a los modelos resolver problemas matemáticos fundamentales que nunca habían encontrado. Mientras los sistemas de IA generativa actuales producen resultados variables según las entradas, las matemáticas operan con respuestas correctas únicas. Este progreso sugiere que la IA podría estar acercándose a capacidades de razonamiento comparables a la inteligencia humana, según Reuters.
Las implicaciones de tales avances acercan a la IA a la posibilidad de alcanzar la inteligencia general artificial (AGI), una etapa en la que las máquinas pueden razonar de manera similar a los humanos. Sin embargo, dentro del panorama de la inteligencia artificial ha surgido una división. Una facción prominente, liderada por el llamado padrino de la IA, advierte que la AGI representa riesgos existenciales para la humanidad a menos que esté acompañada de regulaciones sólidas.
En marcado contraste, el Científico Jefe de IA de Meta, Yann LeCun, se opone fervientemente a esta noción. Desestimó públicamente las preocupaciones sobre Q*, calificándolas de “completamente absurdas” y afirmando que muchos laboratorios de IA líderes, como FAIR, DeepMind y OpenAI, están explorando caminos similares y ya han compartido sus hallazgos.
LeCun se erige como una voz formidable en contra de la creencia de que la AGI podría traer la caída de la humanidad. Argumenta que poseer superinteligencia no implica necesariamente dominar a quienes tienen menos inteligencia. Trazando paralelismos con estructuras corporativas, sugiere que los líderes a menudo gestionan equipos más capaces intelectualmente que ellos mismos, desmintiendo la suposición de que una mayor inteligencia conlleva un deseo de conquista.
Además, enfatiza que las máquinas carecen de instintos sociales y no poseen ambiciones de sobrepasar a la humanidad. “La inteligencia no tiene nada que ver con el deseo de dominar”, argumentó LeCun en un reciente discurso en línea. Más bien, imagina la IA superinteligente como socios beneficiosos que mejoran nuestras capacidades humanas.
Resumiendo su perspectiva sobre la AGI, LeCun propuso los siguientes puntos:
- La IA superhumana sin duda emergerá en el futuro.
- Estos sistemas de IA estarán bajo control humano.
- No representarán una amenaza para la humanidad ni buscarán hacernos daño.
- Facilitarán nuestras interacciones con el ámbito digital.
- Por lo tanto, deben operar como plataformas abiertas, permitiendo contribuciones de diversos creadores para su entrenamiento y perfeccionamiento.
A medida que continúan las discusiones sobre las implicaciones de los avances en IA, el debate entre los riesgos potenciales y las oportunidades optimistas sigue siendo relevante. La futura intersección de la tecnología y la inteligencia humana determinará, en última instancia, la trayectoria del papel de la IA en la sociedad.