A principios de esta semana, Ilya Sutskever, cofundador y excientífico jefe de OpenAI, y Jan Leike, un investigador clave, anunciaron sus renuncias casi simultáneamente. Este desarrollo es significativo no solo por sus altos cargos, sino también porque lideraban el equipo de superalineación, encargado de crear sistemas para gestionar modelos de inteligencia artificial superinteligentes, aquellos que superan la inteligencia humana.
Tras su salida, se ha informado que el equipo de superalineación de OpenAI fue disuelto, como se destaca en un reciente artículo de Wired, donde mi esposa es editora en jefe. Hoy, Leike utilizó su cuenta personal en X para criticar a OpenAI y su liderazgo, acusándolos de priorizar "productos llamativos" por encima de la seguridad. En una publicación, afirmó: “En los últimos años, la cultura y los procesos de seguridad han quedado en segundo plano frente a productos deslumbrantes”.
Leike, quien se unió a OpenAI a principios de 2021, admitió haber tenido desacuerdos con la dirección de la empresa, refiriéndose probablemente al CEO Sam Altman y a otros altos ejecutivos como el presidente Greg Brockman y la CTO Mira Murati. Señaló: “He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo, hasta que finalmente alcanzamos un punto de quiebre”.
Recalcó la urgente necesidad de abordar cómo dirigir y controlar sistemas de IA que son significativamente más inteligentes que los humanos.
En julio de 2023, OpenAI se comprometió a destinar el 20% de sus recursos computacionales, específicamente sus potentes clústeres de GPU de Nvidia, a la iniciativa de superalineación. Este esfuerzo busca desarrollar de manera responsable la inteligencia artificial general (AGI), definida en la carta de la empresa como “sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos”.
A pesar de este compromiso, Leike expresó frustración: “Mi equipo ha navegado contra el viento. A veces luchábamos por recursos computacionales, y se hacía más difícil llevar a cabo investigaciones cruciales”.
En respuesta al hilo de Leike, Altman lo citó, agradeciendo sus contribuciones a la investigación de alineación y la cultura de seguridad de OpenAI. Reconoció la necesidad de seguir trabajando y prometió una publicación más detallada en los próximos días.
Esta noticia lanza una sombra sobre OpenAI, coincidiendo con el reciente lanzamiento del nuevo modelo base multimodal GPT-4o y la aplicación de ChatGPT para escritorio en Mac, anunciada el lunes. También representa un desafío para Microsoft, un inversor y socio clave, mientras se preparan para la próxima conferencia Build la próxima semana.
Nos hemos puesto en contacto con OpenAI para obtener una declaración sobre los comentarios de Leike y proporcionaremos actualizaciones a medida que estén disponibles.