En medio de crecientes preocupaciones sobre la seguridad de los sistemas avanzados de inteligencia artificial (IA), el CEO de OpenAI, Sam Altman, anunció que el próximo modelo generativo importante de la empresa se someterá a controles de seguridad con el gobierno de EE. UU. antes de su lanzamiento.
En una publicación en X, Altman compartió que OpenAI ha estado colaborando con el Instituto de Seguridad de IA de EE. UU., una agencia federal, en un acuerdo que otorga acceso anticipado a su nuevo modelo base. Esta colaboración tiene como objetivo avanzar en la ciencia de evaluación de IA y garantizar medidas de seguridad robustas.
Compromiso de OpenAI con la Seguridad
Altman enfatizó que OpenAI ha revisado sus políticas de no difamación, permitiendo que empleados actuales y anteriores expresen preocupaciones sobre las prácticas de la empresa sin restricciones. Además, la compañía está comprometida a destinar al menos el 20% de sus recursos computacionales a la investigación en seguridad.
Preocupaciones de los Senadores de EE. UU.
A medida que OpenAI se ha consolidado como líder en la industria de IA con productos como ChatGPT y el reciente SearchGPT, su rápida estrategia de desarrollo ha generado controversia. Críticos, incluidos exlíderes de seguridad, han acusado a la empresa de descuidar la seguridad en favor de un avance veloz.
En respuesta a estas preocupaciones, cinco senadores de EE. UU. escribieron recientemente a Altman, cuestionando el compromiso de OpenAI con la seguridad y abordando alegaciones de represalias contra ex-empleados que alzaron la voz a través del acuerdo de no difamación. Los senadores expresaron que las preocupaciones de seguridad en curso parecen contradecir el compromiso declarado de OpenAI con un desarrollo responsable de la IA.
Respuesta del Liderazgo de OpenAI
Según Bloomberg, Jason Kwon, director de estrategia de OpenAI, respondió reafirmando la misión de la empresa de desarrollar IA que sirva a los mejores intereses de la humanidad. Destacó el compromiso de OpenAI de implementar medidas de seguridad rigurosas durante sus procesos y de mantener la transparencia con los empleados.
Kwon reiteró los planes de destinar el 20% de la potencia computacional a la investigación en seguridad, eliminar cláusulas de no difamación para fomentar un diálogo abierto y colaborar con el Instituto de Seguridad de IA en lanzamientos seguros de modelos. Altman también apoyó este compromiso en X, aunque no reveló detalles específicos sobre la colaboración con el Instituto de Seguridad de IA.
Colaborando por una IA Más Segura
El Instituto de Seguridad de IA, parte del Instituto Nacional de Estándares y Tecnología (NIST), fue establecido durante la cumbre de seguridad de IA del Reino Unido para abordar los riesgos potenciales asociados con la IA avanzada, incluidas las preocupaciones de seguridad nacional y pública. Colabora con más de 100 empresas tecnológicas, incluidas Meta, Apple, Amazon, Google y OpenAI, para promover la seguridad en el desarrollo de IA.
Es importante destacar que OpenAI no se limita a asociarse solo con el gobierno de EE. UU. También ha establecido un acuerdo similar de revisión de seguridad con el gobierno del Reino Unido.
Escalando las Preocupaciones de Seguridad
Las preocupaciones de seguridad se intensificaron en mayo cuando Ilya Sutskever y Jan Leike, los co-líderes del equipo de superalineación de OpenAI enfocado en el desarrollo de sistemas de seguridad para IA superinteligente, renunciaron abruptamente. Leike criticó abiertamente a la empresa por priorizar productos llamativos sobre medidas de seguridad esenciales.
Tras sus salidas, informes indicaron la disolución del equipo de superalineación. A pesar de estos contratiempos, OpenAI continuó lanzando productos y reforzando su compromiso con la seguridad mediante investigaciones internas y la formación de un nuevo comité de seguridad y protección. Este comité, presidido por Bret Taylor (presidente de la junta de OpenAI), incluye miembros destacados como Adam D’Angelo (CEO de Quora), Nicole Seligman (exconsejera general de Sony Global) y Sam Altman.
A través de estos esfuerzos, OpenAI busca abordar las preocupaciones críticas sobre la seguridad en tecnologías avanzadas de IA, esforzándose por lograr un equilibrio entre innovación y desarrollo responsable.