OpenAI, la organización de investigación detrás del avanzado modelo de lenguaje GPT-4, ha publicado un estudio interesante que explora el uso potencial de la IA en la creación de amenazas biológicas. Esta investigación, realizada con la participación de expertos en biología y estudiantes, reveló que GPT-4 solo proporcionó un "ligero aumento" en la precisión de la creación de amenazas biológicas en comparación con los recursos en línea existentes.
Este estudio forma parte del Marco de Preparación de OpenAI, desarrollado para evaluar y abordar los riesgos potenciales asociados a las capacidades avanzadas de la IA, especialmente los relacionados con "riesgos fronterizos", es decir, amenazas poco comprendidas. Una de las principales preocupaciones es la posibilidad de que la IA ayude a actores malintencionados a orquestar ataques biológicos, incluyendo la síntesis de patógenos y toxinas.
Metodología y Resultados del Estudio
Los investigadores llevaron a cabo una evaluación humana con 100 participantes: 50 doctores en biología con experiencia profesional en laboratorio y 50 estudiantes que habían completado al menos un curso universitario de biología. Los participantes fueron asignados aleatoriamente a un grupo de control (que solo tuvo acceso a Internet) o a un grupo de tratamiento (que tuvo acceso a GPT-4 junto con Internet). Realizaron tareas relacionadas con el proceso de creación de amenazas biológicas, incluyendo ideación, adquisición, amplificación, formulación y liberación.
Se evaluó el rendimiento en cinco métricas clave: precisión, completitud, innovación, tiempo empleado y dificultad autoevaluada. Los resultados indicaron que GPT-4 no mejoró significativamente el rendimiento de los participantes en ninguna métrica, con solo una ligera mejora en precisión para el grupo de estudiantes. Además, GPT-4 generó con frecuencia respuestas incorrectas o engañosas, lo que podría obstaculizar la creación de amenazas biológicas.
Los investigadores concluyeron que la generación actual de modelos de lenguaje como GPT-4 no aumenta significativamente el riesgo de creación de amenazas biológicas en comparación con los recursos en línea disponibles. Sin embargo, advirtieron que este hallazgo no es definitivo, ya que futuros modelos de lenguaje podrían evolucionar y volverse más capaces y peligrosos. Enfatizaron la necesidad de una investigación continua, discusión comunitaria y el desarrollo de métodos de evaluación efectivos y pautas éticas para gestionar los riesgos de seguridad de la IA.
Estas conclusiones coinciden con hallazgos previos de un ejercicio de equipo rojo de la Corporación RAND, que también no encontró diferencias estadísticamente significativas en la viabilidad de los planes de ataque biológico generados con o sin modelos de lenguaje. Ambos estudios reconocieron limitaciones en sus metodologías y en la rápida evolución de la tecnología de IA, que podría alterar el panorama de riesgos en un futuro cercano.
Las preocupaciones sobre el posible mal uso de la IA para amenazas biológicas van más allá de OpenAI; la Casa Blanca, las Naciones Unidas y numerosos expertos académicos y políticos también han solicitado un aumento en la investigación y la regulación. A medida que la tecnología de IA se vuelve más poderosa y accesible, la urgencia por la vigilancia y la preparación sigue en aumento.