El científico jefe de IA de Meta, Yann LeCun, ha criticado con fuerza a los líderes de IA que abogan por regulaciones por temor a que la IA represente una amenaza existencial para la humanidad, especialmente mientras el Reino Unido se prepara para su primera cumbre global sobre IA esta semana. En una publicación en X (anteriormente Twitter), LeCun desestimó estos escenarios apocalípticos como infundados. “Los temores del fin del mundo que ustedes propagan son absurdos,” afirmó. “Los poderosos sistemas de IA guiados por objetivos bien definidos, junto con las medidas de seguridad adecuadas, son seguros y controlables porque establecemos esos parámetros.”
LeCun destacó que los modelos de lenguaje autoregresivos actuales (LLMs) carecen de estos objetivos orientadores, advirtiendo sobre extrapolar sus limitaciones actuales a futuros sistemas de IA. Además, acusó a los líderes de tres grandes empresas de IA—el CEO de OpenAI, Sam Altman; el CEO de Google DeepMind, Demis Hassabis; y el CEO de Anthropic, Dario Amodei—de colusión para mantener modelos de IA cerrados, afirmando que “Altman, Hassabis y Amodei están a la vanguardia de un intenso cabildeo corporativo destinado a capturar marcos regulatorios dentro de la industria de la IA.”
Dirigiéndose a otros ganadores del Premio Turing, retó al profesor del MIT Max Tegmark, junto con Geoff Hinton y Yoshua Bengio, señalando que, sin querer, proporcionan munición a quienes presionan por restricciones en la investigación y el desarrollo de IA abierta. LeCun defiende la investigación de IA abierta como un medio vital para democratizar el acceso tecnológico, enfatizando que el enfoque de Meta se centra en iniciativas de código abierto, como su modelo de lenguaje grande, Llama 2.
A pesar de las preocupaciones del gobierno de EE. UU. sobre que la IA de código abierto podría empoderar a actores maliciosos, LeCun sostiene que limitar el acceso a los modelos de IA es contraproducente. “Si sus campañas impulsadas por el miedo tienen éxito, inevitablemente llevarán a una catástrofe: un control concentrado de la IA por un selecto grupo de empresas. La mayoría de nuestros colegas académicos apoya abrumadoramente la investigación de IA abierta. Muy pocos respaldan los escenarios de apocalipsis que han presentado.”
LeCun argumenta que las plataformas de IA abiertas deberían ser la norma para fomentar contribuciones diversas y el compromiso democrático dentro del campo. “En un futuro donde los sistemas de IA incorporen el conocimiento y la cultura humana colectiva, es esencial que las plataformas permanezcan de código abierto y accesibles. Esta apertura es crucial para reflejar con precisión toda la experiencia e ideas humanas,” explicó. “Las contribuciones deben ser colectivas, al igual que Wikipedia, lo cual es inviable sin plataformas abiertas.”
Advirtió que regulaciones estrictas podrían sofocar la IA de código abierto, llevando a un control monopolístico sobre las plataformas de IA por unas pocas empresas de la costa oeste de EE. UU. y de China. “¿Qué implicaciones tendría esto para la democracia y la diversidad cultural? Esa es mi verdadera preocupación.”
Los comentarios críticos de LeCun llegan en medio de informes que indican que la próxima cumbre en el Reino Unido se centrará principalmente en los riesgos que plantea la IA. Respondiendo a estas preocupaciones, bromeó en Twitter sobre que el Primer Ministro británico podría haber desarrollado "la Enfermedad del Delirio Fatalista Existencial por IA (EFRAID)", esperando juguetonamente que no se extendiera a otros líderes mundiales. Aunque fue invitado a la cumbre, sus declaraciones provocaron un debate con Tegmark, avivando más discusión sobre el tema.
Este discurso se intensificó tras la advertencia de Hinton, apodado el "padrino de la IA", el 27 de octubre sobre que las empresas planean desarrollar modelos que utilicen potencia computacional exponencialmente mayor en un futuro cercano, lo que suscita preocupaciones sobre la falta de regulaciones que gobiernen sus capacidades. LeCun respondió a la afirmación de Hinton, enfatizando que si los futuros sistemas de IA siguen arquitecturas existentes, pueden alcanzar altos niveles de conocimiento pero aún carecer de razonamiento, inventiva y comprensión del mundo físico.
“Los sistemas futuros deben adoptar arquitecturas innovadoras que les permitan razonar, planificar y operar dentro de objetivos y medidas de seguridad definidos,” afirmó. “Estos marcos orientados a un propósito garantizarán seguridad y control, ya que dictamos sus metas, previniendo cualquier intención general de dominación.” Discrepó firmemente de la noción de que los sistemas avanzados de IA buscarán inevitablemente superar a la humanidad, argumentando que tales creencias son fundamentalmente erróneas.