La Influencia Creciente del Altruismo Efectivo en la Seguridad de la IA

Un experto en políticas de IA de EE. UU. comentó recientemente: “Si no estás explorando la influencia del altruismo efectivo (EA), te estás perdiendo la historia.” Reflexionando sobre esto, me doy cuenta de que pasé por alto un ángulo importante en mi cobertura la semana pasada.

Irónicamente, pensé que mi artículo sobre las preocupaciones en torno a la seguridad de los pesos de los modelos de lenguaje grande (LLM) era un triunfo evidente. La reciente Orden Ejecutiva sobre IA de la Casa Blanca exige a las compañías de modelos base documentar la propiedad y las medidas de seguridad para los modelos de uso dual, haciendo que este tema sea oportuno y relevante. En mi artículo, entrevisté a Jason Clinton, Director de Seguridad de la Información de Anthropic, quien enfatizó la necesidad crítica de asegurar los pesos del modelo Claude, el LLM de Anthropic. Señaló el peligro de que criminales, terroristas y estados-nación accedan a estos sofisticados modelos, mencionando que "si un atacante accediera al archivo completo, podría controlar toda la red neuronal." Otras empresas de vanguardia comparten estas preocupaciones; el nuevo “Marco de Preparación” de OpenAI aborda la necesidad de restringir el acceso a información sensible de modelos.

También hablé con Sella Nevo y Dan Lahav de la Corporación RAND, autores de un informe significativo titulado Asegurando los Pesos de Modelos de Inteligencia Artificial. Nevo, quien dirige el Centro Meselson de RAND, advirtió que los modelos de IA podrían pronto tener implicaciones sustanciales para la seguridad nacional, incluyendo el posible uso indebido para desarrollar armas biológicas.

La Red de Conexiones del Altruismo Efectivo en la Seguridad de IA

Al reflexionar, mi artículo no abordó las complejas conexiones entre la comunidad de altruismo efectivo y el emergente campo de la seguridad en IA. Este descuido es notable dado el creciente impacto de EA, un movimiento intelectual que enfatiza el uso de la razón y la evidencia para beneficiar a la humanidad, particularmente en la prevención de riesgos existenciales derivados de IA avanzada. Los críticos argumentan que el enfoque de EA en amenazas distantes descuida problemas acuciantes como el sesgo, la desinformación y la ciberseguridad en el desarrollo de IA.

Recientemente, EA estuvo en las noticias debido a la participación de la junta de OpenAI en la destitución del CEO Sam Altman, destacando las conexiones de EA en decisiones críticas.

A pesar de ser consciente de la relación de Anthropic con EA—el fundador de FTX, Sam Bankman-Fried, una vez mantuvo una participación de $500 millones en la startup—no profundicé en las implicaciones de EA para mi historia. Sin embargo, tras leer un artículo de Politico que apareció al día siguiente, descubrí conexiones clave entre RAND y EA, incluyendo lazos significativos de financiamiento.

El artículo de Politico reveló que los investigadores de la Corporación RAND fueron fundamentales para dar forma a la Orden Ejecutiva de la Casa Blanca sobre los pesos de los modelos, y que la organización recibió más de $15 millones de Open Philanthropy, una iniciativa de EA respaldada por el cofundador de Facebook, Dustin Moskovitz. Es importante destacar que Jason Matheny, CEO de RAND, y el científico senior Jeff Alstott son altruistas efectivos reconocidos con vínculos previos a la administración Biden.

Perspectivas de la Comunidad de Altruismo Efectivo

En mi conversación de seguimiento con Nevo, él comentó que la fuerte presencia de defensores de EA en la seguridad de IA no debería sorprender. Históricamente, EA ha estado a la vanguardia de las discusiones sobre la seguridad de la IA, lo que significa que cualquier persona involucrada en este campo probablemente se haya encontrado con perspectivas de EA.

Nevo también expresó frustración con el tono del artículo de Politico, sugiriendo que implicaba injustamente irregularidades mientras resaltaba el papel a largo plazo de RAND al proporcionar valiosa investigación para los formuladores de políticas. Enfatizó que ni él ni su centro participaron en la Orden Ejecutiva y que las disposiciones relacionadas con la seguridad del modelo fueron compromisos voluntarios preestablecidos por la Casa Blanca.

Mientras el Centro Meselson sigue siendo relativamente desconocido, Nevo indicó que es uno de muchos centros de investigación de RAND, centrándose en la bio-vigilancia y la intersección de la IA con la seguridad biológica.

La Importancia del Altruismo Efectivo en la Seguridad de IA

¿Realmente importa la influencia de EA? Reflexionando sobre la icónica línea de Jack Nicholson, “¡Me necesitas en ese muro!”, surge la pregunta: si necesitamos individuos dedicados en la seguridad de IA, ¿importa su ideología?

Para muchos que abogan por la transparencia y políticas efectivas en IA, la respuesta es sí. Como se destaca en el informe de Politico sobre la influencia de EA en Washington, estas conexiones definirán significativamente las políticas, regulaciones y el desarrollo de IA en el futuro.

El experto en políticas de IA de EE. UU. con quien hablé observó que muchos en la esfera política pasan por alto las posibles agendas ideológicas en la IA. Desafortunadamente, subestiman su impacto.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles