OpenAI ha anunciado el inicio del entrenamiento de su último "modelo frontera" y ha establecido un nuevo Comité de Seguridad y Protección. Este comité está presidido por el miembro de la junta Bret Taylor, junto a otros miembros destacados: Adam D’Angelo, Nicole Seligman y Sam Altman, actual CEO de OpenAI.
Según un reciente blog, OpenAI declaró: "Recientemente hemos comenzado a entrenar nuestro próximo modelo frontera, con el objetivo de mejorar nuestras capacidades en el camino hacia la Inteligencia General Artificial (AGI). Aunque nos enorgullece ofrecer modelos líderes en la industria enfocados tanto en el rendimiento como en la seguridad, fomentamos el diálogo abierto en este momento crucial."
Inicia un Reloj de 90 Días
OpenAI ha delineado las responsabilidades inmediatas del comité: "La primera tarea del Comité de Seguridad y Protección será evaluar y perfeccionar los procesos y salvaguardas de OpenAI en un plazo de 90 días. Al final de este período, el comité presentará sus recomendaciones a la junta completa. Posteriormente, OpenAI comunicará públicamente las recomendaciones adoptadas, en alineación con los protocolos de seguridad y protección."
Esto indica que el nuevo modelo frontera—posiblemente llamado GPT-5—no será lanzado en al menos 90 días, brindando al comité tiempo suficiente para evaluar los procesos y protecciones existentes. En consecuencia, se espera que la junta reciba estas recomendaciones para el 26 de agosto de 2024.
¿Por Qué 90 Días?
Aunque OpenAI no ha especificado el motivo de este plazo, 90 días es una práctica empresarial convencional para la evaluación y retroalimentación, proporcionando un marco temporal equilibrado que no es ni demasiado corto ni excesivamente largo.
Preocupaciones sobre la Independencia del Comité
La formación de este nuevo comité ha suscitado críticas, ya que sus miembros son en su mayoría ejecutivos de OpenAI, lo que genera preocupaciones sobre la independencia de las evaluaciones de seguridad. La composición de la junta de OpenAI ha sido históricamente polémica. En un movimiento sorprendente el 17 de noviembre de 2023, la junta anterior de la empresa sin fines de lucro despidió a Altman, alegando que no era "consistentemente sincero." Esto provocó una fuerte reacción por parte de los empleados y críticas de importantes inversores, incluida Microsoft, que restableció a Altman cuatro días después. La anterior junta fue objeto de escrutinio por su composición exclusivamente masculina y fue reestructurada posteriormente.
El 8 de marzo de este año, se añadieron nuevos miembros a la junta, incluidos Sue Desmond-Hellmann y Fidji Simo, en medio de esfuerzos por diversificar su liderazgo.
Desafíos y Oportunidades para OpenAI
OpenAI lanzó recientemente su último modelo de IA, GPT-4o, pero ha recibido críticas tras este lanzamiento. La actriz Scarlett Johansson condenó públicamente a la compañía por supuestamente utilizar una voz de IA que se asemejaba a la suya, vinculada a su papel en la película "Her." OpenAI aclaró que la voz en cuestión fue encargada de manera independiente y no tenía la intención de imitar a Johansson.
Además, la renuncia del científico jefe Ilya Sutskever y el co-líder del equipo de superalineación ha causado preocupación, subrayando una tendencia preocupante hacia la priorización de "productos llamativos" sobre la seguridad. El equipo de superalineación fue disuelto finalmente.
A pesar de estos desafíos, OpenAI ha forjado nuevas asociaciones en medios de comunicación tradicionales para sus datos de entrenamiento y ha generado interés en su modelo de generación de video Sora, captando la atención de la industria del entretenimiento mientras busca aprovechar la IA para aumentar la eficiencia en la producción.
A medida que OpenAI navega por estas aguas turbulentas, la efectividad del nuevo Comité de Seguridad y Protección será crucial para abordar las preocupaciones de los interesados, especialmente entre reguladores y posibles socios comerciales, de cara al lanzamiento de su próximo modelo.