Entendiendo la Superinteligencia: Un Camino hacia la Inteligencia Colectiva
El término "superinteligencia" se utiliza cada vez más para describir sistemas de IA que se espera superen las habilidades cognitivas humanas en diversas tareas, desde la lógica y el razonamiento hasta la creatividad y la intuición. Lo que alguna vez pareció una posibilidad lejana ahora se considera a menos de una década, lo que genera preocupaciones significativas entre los responsables políticos e investigadores. Una de las principales inquietudes es la creación de una superinteligencia artificial (ASI) que carezca de valores, moral y objetivos humanos.
Para mitigar este riesgo, algunos investigadores buscan diseñar sistemas de IA que se alineen con los valores humanos. Por ejemplo, Anthropic trabaja en un método llamado IA Constitucional, que establece un marco de principios para gobernar el comportamiento de la IA. Mientras tanto, OpenAI está implementando una estrategia denominada Superalineación, destinando el 20% de su capacidad computacional a este importante asunto.
Sin embargo, esto plantea una pregunta urgente: ¿existe un camino más seguro hacia la superinteligencia?
Creo que sí: un concepto conocido como Superinteligencia Colectiva (CSi). Mi enfoque como investigador de IA durante la última década ha estado en este enfoque. La CSi busca amplificar el intelecto humano conectando grandes grupos en sistemas capaces de resolver problemas complejos de manera colaborativa. Este método garantiza que los valores humanos y las consideraciones éticas se integren a lo largo del proceso de toma de decisiones.
Aunque pueda sonar poco convencional, esto está en línea con un avance evolutivo natural observado en muchas especies sociales, conocido como Inteligencia Colectiva. Este fenómeno permite a escuelas de peces, enjambres de abejas y bandadas de aves navegar por sus entornos de manera efectiva sin control centralizado. En lugar de depender de votaciones o encuestas, forman sistemas interactivos en tiempo real (enjambres) que convergen en soluciones óptimas.
Si este modelo funciona para peces y aves, ¿por qué no para las personas?
Esta pregunta motivó mi investigación sobre si los grupos humanos podrían funcionar como sistemas superinteligentes. En 2014, fundé Unanimous AI para emular enjambres biológicos. Nuestras técnicas iniciales utilizaban métodos no verbales, permitiendo a cientos de usuarios responder preguntas colaborativamente al controlar un disco gráfico, mientras los algoritmos de IA analizaban sus interacciones para medir sus niveles de convicción.
Nuestro sistema generó pronósticos grupales sobre diversos eventos con eficiencia, incluso sorprendiendo a escépticos. Por ejemplo, en 2016, una reportera de CBS solicitó predicciones para el Kentucky Derby, y tras apostar según el pronóstico de nuestro grupo, ganó significativamente, lo que ilustra el potencial de la Superinteligencia Colectiva. Estudios académicos posteriores validaron las aplicaciones de la IA de Enjambre en diversos campos, desde previsiones financieras hasta diagnósticos médicos.
A pesar de estos avances, alcanzar una verdadera superinteligencia seguía siendo un desafío, ya que los métodos anteriores abordaban problemas solo de manera limitada. Para crear una superinteligencia humana integral, la tecnología debe ser adaptable para facilitar deliberaciones sobre asuntos complejos, utilizando la herramienta humana más poderosa: el lenguaje.
Sin embargo, permitir que grandes grupos participen en conversaciones coherentes y en tiempo real presenta retos. La investigación muestra que los tamaños óptimos de grupo para discusiones productivas oscilan entre cuatro y siete miembros. Más allá de esto, las dinámicas conversacionales a menudo cambian de diálogo comprometido a monólogos fragmentados. Esta limitación parecía insuperable hasta que los recientes desarrollos en IA, particularmente los modelos de lenguaje de gran escala (LLMs), abrieron nuevas posibilidades para construir enjambres humanos.
La nueva tecnología denominada Inteligencia Colectiva Conversacional (CSI) promete transformar cómo los grupos abordan problemas complejos al permitir que casi cualquier grupo (de 200 a 2 millones) converse en tiempo real, desbloqueando la amplificación natural típica de la inteligencia de enjambre.
Inspirados por el mecanismo de comunicación de las escuelas de peces, que mantienen "conversaciones" en tiempo real entre miles sin un líder, adaptamos esta idea para los humanos. Utilizando un concepto denominado hyperswarms, los grandes grupos se dividen en subgrupos superpuestos. Por ejemplo, una red de 1,000 individuos puede segmentarse en grupos más pequeños, facilitando conversaciones paralelas que potencian la deliberación reflexiva.
Pero crear grupos paralelos por sí solo no es suficiente para alcanzar la Inteligencia de Enjambre; la información debe fluir entre los subgrupos. Esto se logra incorporando agentes de IA, que emulan el órgano de línea lateral que se encuentra en los peces. Impulsados por LLMs, estos agentes observadores destilan y transmiten conocimientos a toda la población, asegurando la propagación del conocimiento.
Estudios recientes probaron este concepto a través de una tarea de estimación adaptada del experimento de 1906 de Sir Francis Galton. En nuestra prueba, 240 participantes estimaron la cantidad de esferas de goma en un frasco. Sus estimaciones individuales se desviaron, llevando a un error promedio del 55%. En comparación, la media estadística agregada mejoró la precisión al 25%, mientras que la estimación de ChatGPT estuvo más cerca con un margen de error del 42%.
Lo más notable es que el método del enjambre conversacional superó tanto a los individuos como a ChatGPT, logrando una tasa de error extraordinaria del 12%.