"Nosotros, el pueblo," debemos tomar el control de la inteligencia artificial, no las corporaciones tecnológicas ni las élites políticas. Los recientes errores de Google con su sistema Gemini AI subrayan esta urgencia.
Gemini no logra clasificar de manera precisa a las figuras históricas, afirmando que Hitler no es peor que los tweets de Elon Musk. Además, evita redactar documentos de políticas que promuevan el uso de combustibles fósiles. Por otra parte, genera imágenes que retratan erróneamente a los padres fundadores de América en razas y géneros distintos a los que realmente tenían.
Estos ejemplos pueden parecer absurdos, pero anuncian una distopía inminente donde burócratas no responsables de empresas privadas de IA dictan qué ideas y valores pueden expresarse. Esto debería ser inaceptable para todos, sin importar su ideología.
Buscar la intervención del gobierno para regular el discurso de IA conlleva sus propios riesgos. Aunque la regulación es esencial para la seguridad y equidad en la IA, una sociedad libre debe resistir la idea de permitir que los gobiernos decidan qué ideas se pueden expresar o suprimir.
Claramente, ni las corporaciones ni las entidades gubernamentales deberían tomar estas decisiones. Sin embargo, a medida que los usuarios recurren a herramientas de IA para obtener información y generar contenido, tendrán expectativas diversas sobre los valores que estas herramientas deben reflejar.
Una solución viable existe: empoderar a los usuarios para gobernar la IA.
Estrategias para el Empoderamiento del Usuario en IA
En los últimos cinco años, he trabajado con la industria tecnológica como científico político académico, explorando formas de empoderar a los usuarios en la gobernanza de plataformas en línea. Aquí están mis conclusiones sobre cómo poner a los usuarios a cargo de la IA de manera efectiva.
1. Normas Definidas por Usuarios: Deberíamos crear un mercado para modelos de IA diversos y ajustados. Diversos grupos de interés—periodistas, grupos religiosos, organizaciones e individuos—deberían tener la capacidad de personalizar y seleccionar versiones de modelos de código abierto que resuenen con sus valores. Esto aliviaría la presión sobre las empresas para actuar como "árbitros de la verdad."
2. Normas Centralizadas: Aunque el enfoque de mercado reduce algunas presiones, deben existir normas fundamentales. Cierto contenido—especialmente material ilegal o instancias ambiguas de sátira, insultos o imágenes políticamente sensibles—requiere estándares unificados en todos los modelos. Los usuarios deberían participar en el establecimiento de estas normas mínimas y centralizadas.
Algunas empresas tecnológicas ya están experimentando con la democratización. Por ejemplo, Meta inició un foro comunitario en 2022 para recopilar opiniones públicas sobre su herramienta de IA LlaMA, mientras que OpenAI buscó "contribuciones democráticas a la IA," y Anthropic lanzó una constitución de IA co-creada por usuarios.
3. Poder Democrático Real: Para crear una estructura democrática robusta, los usuarios deberían proponer, debatir y votar sobre cuestiones importantes, con decisiones vinculantes para la plataforma. Aunque las propuestas deben ser limitadas para evitar violaciones legales, deben empoderar a los usuarios sobre las normas centrales.
Aunque ninguna plataforma ha implementado aún un mecanismo de votación, los experimentos en web3 ofrecen valiosas lecciones. Aquí hay cuatro aprendizajes clave que las plataformas de IA pueden adoptar:
- Intereses Tangibles en la Votación: Vincula el poder de voto a tokens digitales con utilidad en la plataforma, como la compra de tiempo de computación de IA.
- Votación Delegada: Los usuarios deberían delegar sus votos a expertos verificados que expliquen sus decisiones públicamente.
- Recompensas por Participación: Fomenta la participación activa en la gobernanza premiando a los usuarios con tokens adicionales por su compromiso significativo.
- Constitución Clara: Establece un marco constitucional que defina el alcance de las propuestas, la distribución del poder de voto y el compromiso de la empresa de ceder control sobre las normas centrales.
Construyendo Confianza en los Sistemas de IA
Las plataformas de IA pueden probar este modelo democrático a pequeña escala, ampliando gradualmente su impacto. Para que funcione, las empresas de IA deben comprometerse a ceder el control sobre las normas centrales. Solo así la sociedad podrá confiar en que la información y las respuestas proporcionadas por estas herramientas no están manipuladas por actores no responsables que no se alinean con los valores de los usuarios a los que sirven.