Tras la reciente turbulencia en la junta directiva, OpenAI se compromete a mejorar la supervisión mediante la creación de un equipo dedicado a la Preparación, enfocado en rigurosas pruebas de seguridad de sus modelos de IA. Esta iniciativa estratégica surge tras la controvertida decisión de despedir al CEO Sam Altman, motivada por preocupaciones del Científico Jefe Ilya Sutskever sobre la rápida comercialización de la tecnología sin los salvaguardias adecuadas contra posibles riesgos. Altman fue reinstalado cinco días después, tras el descontento generalizado de los empleados, lo que subraya la importancia del apoyo laboral en la toma de decisiones corporativas.
Para fortalecer sus protocolos de seguridad, el nuevo equipo de Preparación de OpenAI llevará a cabo evaluaciones exhaustivas y pruebas de estrés en sus modelos fundamentales. Los informes generados por este equipo se compartirán con la dirección de OpenAI y la nueva junta directiva. Mientras que el equipo de liderazgo decidirá si continuar con los modelos según los resultados de las pruebas, la junta ahora tiene la autoridad para revocar esas decisiones, lo que marca un cambio hacia una mayor supervisión en el proceso de toma de decisiones.
En un reciente comunicado, OpenAI enfatizó: “Este trabajo técnico es fundamental para informar la toma de decisiones de OpenAI en cuanto al desarrollo y despliegue seguro de modelos”. La reestructuración de la junta sigue a importantes cambios realizados durante la crisis de liderazgo, con planes para expandir su membresía de tres a nueve, incluyendo un rol de observador no votante para Microsoft. La junta actual está compuesta por figuras destacadas como el ex Secretario del Tesoro de EE.UU., Larry Summers, Bret Taylor, ex co-CEO de Salesforce, y Adam D’Angelo, cofundador de Quora, quien es el único miembro restante de la junta anterior.
La misión de OpenAI es clara: su principal responsabilidad fiduciaria es para con la humanidad, y está profundamente comprometida con garantizar la seguridad de la Inteligencia General Artificial (AGI). El nuevo Marco de Preparación de la organización busca obtener valiosos conocimientos de sus despliegues de modelos, lo que le permitirá mitigar efectivamente los riesgos emergentes. OpenAI afirma que a medida que la innovación se acelera, el ritmo del trabajo de seguridad también debe aumentar, requiriendo aprendizaje continuo a través de despliegues iterativos.
Bajo este Marco de Preparación, el nuevo equipo realizará simulacros de seguridad regularmente para asegurar respuestas rápidas a cualquier problema que pueda surgir. OpenAI también planea involucrar a terceros independientes calificados para llevar a cabo auditorías exhaustivas, mejorando la responsabilidad y la transparencia.
Todos los modelos de OpenAI ahora se actualizarán y evaluarán de forma continua cada vez que el poder computacional efectivo se duplique durante las sesiones de entrenamiento. El proceso de prueba abarcará una serie de áreas críticas, incluidas las vulnerabilidades cibernéticas, el potencial de mal uso y la capacidad de toma de decisiones autónomas, especialmente en relación con resultados peligrosos vinculados a amenazas biológicas, químicas o nucleares.
Los modelos se clasificarán en uno de cuatro niveles de riesgo de seguridad, reflejando el sistema de clasificación de la Ley de IA de la UE. Estas categorías abarcan desde bajo, medio, alto hasta niveles de riesgo crítico. Los modelos considerados de riesgo medio o inferior se considerarán aptos para su despliegue, mientras que aquellos que obtengan una calificación alta o crítica requerirán un mayor desarrollo y medidas precautorias.
Actualmente, el Marco de Preparación de OpenAI está en beta, con ajustes en curso a medida que surgen nuevos conocimientos. Este enfoque proactivo refleja el compromiso de la empresa no solo con el avance de la tecnología de IA, sino también con la seguridad y consideraciones éticas que acompañan a tales innovaciones.