OpenAI se compromete a cumplir su promesa de "transparencia" en el ámbito de la inteligencia artificial. Aunque la empresa no ha hecho que sus nuevos modelos sean de código abierto, está abordando activamente el impacto de la IA en la sociedad, incluyendo desafíos como la desinformación y los deepfakes. Esta semana, OpenAI presentó "Model Spec", un documento marco diseñado para guiar el comportamiento de los modelos de IA accesibles a través de su interfaz de programación de aplicaciones (API) y ChatGPT. OpenAI busca la retroalimentación del público sobre este documento mediante un formulario web disponible hasta el 22 de mayo.
Como señaló Sam Altman, cofundador y CEO de OpenAI, en X: "Escucharemos, debatiremos y adaptaremos esto con el tiempo, pero creo que será muy útil aclarar cuándo algo es un error y cuándo es una decisión”.
¿Por qué publicar un Model Spec?
El lanzamiento de Model Spec se alinea con la misión de OpenAI de asegurarse de que las tecnologías de IA sirvan a los usuarios de manera segura y beneficiosa. Sin embargo, lograr este objetivo es complejo y a menudo se cruza con debates filosóficos de larga data sobre tecnología y sociedad.
OpenAI destacó en su publicación del blog: “Incluso si un modelo está destinado a ser ampliamente beneficioso, las aplicaciones prácticas pueden entrar en conflicto. Por ejemplo, una empresa de seguridad podría usar datos sintéticos para desarrollar herramientas anti-phishing, pero la misma capacidad podría ser explotada por estafadores.”
Al compartir este borrador inicial, OpenAI invita al público a participar en discusiones sobre los aspectos éticos y prácticos del desarrollo de IA. Los usuarios tienen dos semanas para enviar sus comentarios a través del formulario de retroalimentación de OpenAI. Después de este periodo, OpenAI tiene planes de publicar actualizaciones sobre las modificaciones al Model Spec, las respuestas a los comentarios de los usuarios y los avances en la formación del comportamiento del modelo durante el próximo año.
Aunque OpenAI no ha detallado cómo Model Spec influirá en el comportamiento de la IA o si sus principios se integrarán en el "comando del sistema" utilizado para la alineación del modelo, se espera que tenga implicaciones significativas. De alguna manera, Model Spec se asemeja al enfoque "constitucional" de su competidor Anthropic AI, un concepto que inicialmente diferenciaba a Anthropic pero que no ha sido enfatizado recientemente.
Marco para el Comportamiento de la IA
Model Spec consta de tres componentes esenciales: objetivos, reglas y comportamientos predeterminados, que guían las interacciones de la IA asegurando tanto la eficacia como los estándares éticos.
- Objetivos: El documento detalla principios amplios destinados a ayudar a desarrolladores y usuarios, incluyendo la facilitación de objetivos de usuario de manera eficiente, considerando los impactos en diversas partes interesadas y mejorando el bienestar comunitario.
- Reglas: Se establecen reglas claras para navegar las interacciones de la IA, asegurando el cumplimiento de las leyes aplicables, el respeto por la propiedad intelectual, la protección de la privacidad y la prohibición de contenido inseguro.
- Comportamientos Predeterminados: Las directrices enfatizan la importancia de asumir buenas intenciones, buscar aclaraciones cuando sea necesario y maximizar la utilidad sin excederse. Este enfoque busca equilibrar las diversas necesidades de los usuarios. Algunos, incluido el influyente de IA y profesor de la Universidad Wharton, Ethan Mollick, han comparado estos principios con las "Tres Leyes de la Robótica" de Isaac Asimov, de 1942.
Sin embargo, también ha habido críticas sobre la implementación de Model Spec, particularmente en cuanto a cómo influye en las respuestas de la IA. El escritor de tecnología Andrew Curran mencionó un ejemplo donde un "Asistente de IA" no desafía la afirmación incorrecta de un usuario de que la Tierra es plana.
Compromiso y Desarrollo Continuo
OpenAI reconoce que Model Spec es un documento vivo, que refleja tanto las prácticas actuales como un compromiso de adaptarse en función de la investigación continua y la opinión pública. La organización busca recopilar diversas perspectivas, especialmente de partes interesadas globales como responsables de políticas y expertos en el área.
La retroalimentación informará de manera significativa la refinación de Model Spec y los desarrollos futuros de la IA. OpenAI tiene la intención de mantener al público informado sobre los cambios y los conocimientos adquiridos a partir de este ciclo de retroalimentación, reafirmando su compromiso con un desarrollo responsable de la IA.
¿A dónde ir desde aquí?
Al articular claramente el comportamiento deseado de la IA a través de su Model Spec y solicitar la opinión de la comunidad internacional, OpenAI se esfuerza por crear un impacto positivo en la sociedad a través de la IA, incluso en medio de un escrutinio legal y críticas sobre el consentimiento de los artistas en los datos de entrenamiento.