Docenas de manifestantes se congregaron el lunes por la tarde frente a la sede de OpenAI en San Francisco, expresando sus preocupaciones sobre el desarrollo de inteligencia artificial (IA) de la empresa, justo cuando los empleados salían del trabajo.
La protesta, organizada por Pause AI y No AGI, instó a los ingenieros de OpenAI a detener su trabajo en sistemas avanzados de IA, incluido el chatbot ChatGPT. Su mensaje fue claro: detener la búsqueda de una inteligencia general artificial (AGI) que pudiera superar las capacidades humanas y evitar vínculos militares.
La manifestación fue impulsada en parte por la reciente decisión de OpenAI de eliminar de su política de uso la prohibición del uso militar de sus tecnologías de IA. Poco después de este cambio, surgieron informes que indicaban que OpenAI había asegurado al Pentágono como cliente.
“Exigimos que OpenAI termine su relación con el Pentágono y rechace a todos los clientes militares”, afirmaba la descripción del evento. “Si los límites éticos pueden ser modificados por conveniencia, no pueden ser de fiar”.
Medios de comunicación conversaron con los organizadores de la protesta para comprender sus objetivos y definiciones de éxito.
“La misión de No AGI es crear conciencia sobre los peligros de desarrollar AGI”, dijo Sam Kirchener, líder de No AGI. “Deberíamos centrarnos en iniciativas como la emulación completa del cerebro que priorizan el pensamiento humano en la inteligencia”.
Holly Elmore, organizadora principal de Pause AI, expresó el deseo de su grupo de “una pausa global e indefinida en el desarrollo de AGI hasta que se considere seguro”. Enfatizó que “terminar los vínculos militares es una frontera crucial”.
La protesta ocurre en medio de una creciente preocupación pública sobre las implicaciones éticas de la IA. La relación de OpenAI con el Pentágono ha encendido un debate sobre la militarización de la IA y sus posibles impactos.
Los temores de los manifestantes se centran en la AGI, la capacidad de las máquinas para realizar tareas intelectuales humanas a velocidades y escalas sin precedentes. Sus preocupaciones abarcan desde el desplazamiento laboral hasta la autonomía en la guerra, reflejando ansiedad por el cambio en las dinámicas de poder y la toma de decisiones en la sociedad.
“Si logramos construir AGI, corremos el riesgo de perder el significado esencial en nuestras vidas debido a lo que se llama amenaza psicológica, donde la AGI maneja todo”, advirtió Kirchener. “La gente ya no encontrará significado en el trabajo, lo que es crítico para nuestra sociedad actual”.
Elmore agregó: “La auto-regulación no es suficiente; necesita haber supervisión externa. OpenAI ha revertido frecuentemente sus compromisos; Sam Altman afirmó en junio que la junta podría despedirlo, pero en noviembre, no podía ser removido. Surgen inconsistencias similares con su política de uso y contratos militares; estas políticas parecen ineficaces si permiten acciones sin restricciones”.
Aunque tanto Pause AI como No AGI comparten el objetivo de detener el desarrollo de AGI, sus enfoques difieren. Pause AI está abierta a la idea de un desarrollo seguro de AGI, mientras que No AGI se opone firmemente, citando amenazas psicológicas y la pérdida de significado individual.
Ambos grupos indican que esta protesta no será la última, y otros preocupados por los riesgos de la IA pueden involucrarse a través de sus sitios web y redes sociales. Por ahora, Silicon Valley continúa su rápido avance hacia un incierto futuro de IA.