En enero, entrevisté a Mark Beall, cofundador y ex CEO de Gladstone AI, cuya firma de consultoría recientemente publicó un informe innovador sobre la seguridad de la inteligencia artificial para el Departamento de Estado. Las recomendaciones clave del informe, reportadas por TIME, delinean cómo Estados Unidos debe abordar los riesgos significativos para la seguridad nacional asociados con la IA avanzada.
Durante nuestra conversación, exploré el creciente debate entre líderes de IA y política sobre la influencia del altruismo efectivo (EA) dentro de los círculos de seguridad de IA en Washington, D.C. Beall, exjefe de política de IA en el Departamento de Defensa de EE.UU., enfatizó la urgente necesidad de gestionar las potenciales amenazas catastróficas de la IA, subrayando que debemos establecer "salvaguardias de sentido común" en las redes sociales antes de enfrentar un desastre relacionado con la IA.
Para muchos, la "seguridad de la IA" evoca preocupaciones sobre riesgos existenciales, frecuentemente alimentadas por creencias como el altruismo efectivo. Los autores de Gladstone AI informaron que consultaron a más de 200 funcionarios gubernamentales, expertos y personal de laboratorios líderes de IA como OpenAI y Google DeepMind durante su investigación exhaustiva.
Sin embargo, el informe enfrentó escepticismo en redes sociales. Nirit Weiss-Blatt, investigadora en comunicación, destacó los comentarios del coautor Eduoard Harris sobre el criticado problema del "maximizador de clips", visto por algunos como un escenario extremo. Aidan Gomez, CEO de Cohere, cuestionó la legitimidad de la encuesta, sugiriendo que se podrían obtener resultados más representativos a través de encuestas en redes sociales. William Falcon, CEO de Lightning AI, desestimó aún más las afirmaciones sobre que la IA de código abierto representa amenazas de extinción, argumentando que la IA de código cerrado podría ser más peligrosa.
Curiosamente, la salida de Beall de Gladstone coincidió con el lanzamiento de lo que él describió como "el primer Super PAC de seguridad de IA". Lanzado junto con el informe de Gladstone, el PAC busca educar a los votantes sobre políticas de IA, destacando el creciente impacto público de este asunto. Beall mencionó que aseguró financiación inicial para el Super PAC y planea recaudar millones más.
El historial del cofundador Brendan Steinhauser como consultor republicano resalta la misión bipartidista del PAC. Beall declaró: "Queremos que los legisladores de ambos lados promuevan la innovación y protejan la seguridad nacional." La experiencia de Steinhauser en política nacional durante dos décadas apoya este objetivo.
Aunque el lanzamiento simultáneo del Super PAC y el informe de Gladstone puede parecer inusual, Jeremie Harris, cofundador de Gladstone, aclaró que el informe fue encargado por la Oficina de Seguridad Internacional y No Proliferación del Departamento de Estado para proporcionar un análisis experto neutral. Aseguró que Gladstone opera independientemente de cualquier afiliación política o influencias de financiación.
Beall reconoció la importancia del informe de Gladstone, pero enfatizó que "ahora comienza el verdadero trabajo." Hizo un llamado al Congreso para que apruebe legislación que garantice un enfoque flexible y a largo plazo para el desarrollo de IA. Cuando se le preguntó sobre posibles donantes, Beall expresó su esperanza de construir una coalición diversa, citando la preocupación nacional generalizada sobre los riesgos catastróficos de la IA.
Aunque el foco público también pueda dirigirse a amenazas inmediatas como los deepfakes y la desinformación electoral, es evidente que la seguridad y la política de IA se entrelazarán con la financiación y la política en el futuro.