Nuestras vidas están a punto de transformarse con el surgimiento de agentes de inteligencia artificial conversacional diseñados para ayudarnos en cada paso. Estos agentes inteligentes anticiparán nuestros deseos y necesidades, utilizando una vasta cantidad de datos personales sobre nuestros intereses, antecedentes y aspiraciones para ofrecer información personalizada y realizar tareas significativas. El objetivo principal es mejorar la comodidad en nuestra vida diaria.
Esta semana, OpenAI presentó GPT-4o, su último chatbot capaz de detectar emociones humanas. Esta tecnología avanzada puede analizar no solo el sentimiento en tu texto, sino también las sutilezas de tu voz y expresiones faciales durante interacciones por video.
Google anunció recientemente Project Astra, un esfuerzo por desplegar una IA asistencial que interactúa en conversaciones mientras comprende su entorno. Esta capacidad le permitirá proporcionar orientación y asistencia interactivas en tiempo real.
Sam Altman de OpenAI compartió con MIT Technology Review que el futuro de la IA radica en agentes asistenciales personalizados, descritos como "colegas supercompetentes" que gestionan todo, desde correos electrónicos hasta conversaciones, tomando acciones proactivas en nuestro nombre.
Sin embargo, esta visión utópica genera preocupaciones. Como mencioné en un artículo anterior, existe un riesgo significativo de que los agentes de IA puedan comprometer la autonomía humana, particularmente a través de la manipulación dirigida. A medida que estos agentes se integren en nuestros dispositivos móviles, la puerta de entrada a nuestras vidas digitales, acumularán grandes cantidades de datos sobre nosotros, influyendo en la información que consumimos al monitorear y filtrar nuestras interacciones.
Cualquier sistema que observe nuestras vidas y curaduría la información que recibimos representa un riesgo de manipulación. Equipados con cámaras y micrófonos, estos agentes de IA percibirán sus entornos en tiempo real, respondiendo a estímulos sin nuestras solicitudes explícitas. Aunque esta funcionalidad promete comodidad—recordándonos que completemos pendientes o proporcionando orientación social—también conlleva el riesgo de una profunda vigilancia e intervención, lo que muchos podrían considerar perturbador. Aun así, preveo que muchos abrazarán esta tecnología, impulsados por las mejoras que ofrece en nuestras rutinas diarias.
Esta tendencia catalizará una "carrera armamentista" entre las empresas tecnológicas para ofrecer las mejoras mentales más potentes. A medida que estas características se vuelvan comunes, los usuarios que decidan no adoptarlas se encontrarán en desventaja, convirtiendo lo que antes parecía una elección en una necesidad. Predigo que la integración de estas tecnologías será rápida para 2030.
Sin embargo, debemos reconocer los riesgos inherentes. Como discuto en mi libro, Nuestra Próxima Realidad, si bien los agentes asistenciales pueden otorgarnos habilidades cognitivas extraordinarias, son, en última instancia, productos orientados a la obtención de ganancias. Al usarlos, invitamos a las corporaciones a guiar e influir en nuestros pensamientos, haciendo de esta tecnología un recurso empoderador y un potencial instrumento de explotación.
Esto nos lleva al "Problema de Manipulación de IA": la efectividad aumentada de la influencia dirigida a través de agentes conversacionales en comparación con los métodos tradicionales de publicidad. Los vendedores expertos comprenden que involucrar a las personas a través del diálogo es mucho más persuasivo que los anuncios estáticos. A medida que los agentes de IA se vuelven hábiles en el uso de tácticas psicológicas y poseen un amplio conocimiento de nuestras preferencias, su capacidad de manipulación superará a la de cualquier humano.
Estos agentes pueden impactar significativamente nuestra toma de decisiones, empleando retroalimentación continua para refinar sus estrategias de influencia en tiempo real—similar a cómo los misiles guiados por calor ajustan su trayectoria para alcanzar sus objetivos. Sin regulación, los agentes conversacionales corren el riesgo de utilizar esta capacidad para difundir desinformación, lo que hace que la supervisión regulatoria sea imperativa.
Las innovaciones de empresas como Meta, Google y Apple sugieren que los agentes conversacionales pronto serán parte integral de nuestras vidas. Las recientes gafas Ray-Ban de Meta y los avances de Apple en IA multimodal destacan el rápido progreso hacia tecnologías que ofrecerán orientación constante. Una vez que estos productos lleguen a los consumidores, su adopción se disparará.
Si bien hay numerosas aplicaciones beneficiosas para estas tecnologías, no se puede pasar por alto el potencial de manipulación. Para salvaguardar los intereses públicos, insto encarecidamente a los reguladores a actuar rápidamente, implementando limitaciones estrictas en la publicidad conversacional interactiva— el punto de entrada para la propagación de desinformación.