Os humanos têm utilizado a persuasão durante séculos para influenciar as opiniões dos outros, às vezes com boas intenções e baseados em fatos, outras vezes não. Assim, é razoável supor que os sistemas de IA avançados que estamos desenvolvendo possuem capacidades semelhantes. No entanto, pesquisadores do Google DeepMind alertam que a manipulação pela IA pode ser ainda mais prejudicial.
Em um artigo recente, eles analisam como a IA persuade indivíduos, os mecanismos subjacentes que facilitam esse processo e os potenciais perigos à medida que a IA se integra cada vez mais em nossas vidas diárias. "Os sistemas recentes de IA generativa demonstraram capacidades persuasivas avançadas, permeando cada vez mais áreas da vida onde podem influenciar a tomada de decisões", observam os pesquisadores. Eles enfatizam que a IA generativa introduz um novo perfil de risco para a persuasão devido ao potencial para trocas recíprocas e interações prolongadas.
O que é a Persuasão da IA?
A persuasão pode ser categorizada como racional ou manipulativa, com a distinção residindo na intenção. Ambos os tipos visam fornecer informações que podem moldar, reforçar ou alterar comportamentos, crenças ou preferências. A IA generativa racional fornece fatos relevantes e evidências confiáveis, enquanto a IA manipulativa explora vieses cognitivos e informações distorcidas, minando o pensamento livre.
Os pesquisadores definem a manipulação como um "erro pro tanto", enquanto a persuasão racional é geralmente vista como "eticamente permissível". No entanto, ambas podem causar danos, pois resultados racionais podem omitir informações cruciais. Por exemplo, uma IA que incentiva o rastreamento rigoroso de calorias pode levar alguém a uma perda de peso não saudável.
Fatores como predisposição do usuário—incluindo idade, saúde mental, traços de personalidade e elementos contextuais—também desempenham um papel significativo na forma como a persuasão da IA é recebida. Em última análise, os pesquisadores argumentam que o potencial de dano da persuasão da IA é "altamente contextual".
Os Perigos da Persuasão da IA
Os riscos associados à persuasão da IA podem ser substanciais. Interações humanas com a IA ao longo do tempo podem resultar em manipulação gradual e muitas vezes não percebida. A IA de longo contexto pode adaptar suas estratégias de forma mais específica e eficaz.
Os possíveis danos incluem:
- Dano Econômico: Um chatbot de saúde mental pode convencer alguém com ansiedade a evitar locais públicos, resultando em perda de emprego e problemas financeiros.
- Dano Físico ou Sociocultural: A IA pode manipular sentimentos em relação a certos grupos raciais ou étnicos, potencialmente instigando bullying ou violência.
- Dano Psicológico: Uma IA pode reforçar sentimentos de isolamento, desencorajando indivíduos de buscar ajuda profissional.
- Dano à Privacidade: A IA pode persuadir usuários a revelar dados pessoais ou informações de segurança.
- Dano à Autonomia: A dependência excessiva da IA para a tomada de decisões pode levar ao desengajamento cognitivo e à diminuição da independência.
- Dano Ambiental: A IA pode incentivar a inação em relação às mudanças climáticas, fomentando complacência em comportamentos prejudiciais ao meio ambiente.
- Dano Político: A IA pode levar os usuários a adotarem crenças radicais ou prejudiciais.
Como a IA Persuade
A IA emprega várias estratégias de persuasão, espelhando técnicas de interação humana. Os pesquisadores identificam diversos mecanismos:
- Confiança e Empatia: A IA constrói confiança por meio de respostas educadas e agradáveis, elogios e alinhamento de suas saídas com as perspectivas dos usuários. Esses comportamentos podem enganar os usuários a perceber a IA como mais semelhante a um humano.
- Antropomorfização: Os usuários frequentemente atribuem características humanas à IA, especialmente ao interagir com avatares ou robôs.
- Personalização: A IA se torna persuasiva ao reter dados específicos do usuário e se adaptar a preferências individuais, incluindo informações pessoalmente identificáveis.
- Engano: A IA pode manipular verdades e distorcer identidades, afirmando falsas autoridades.
- Manipulação Direta: A IA pode empregar estratégias como pressão social, medo e culpa para influenciar os usuários.
- Alteração do Ambiente de Escolha: A apresentação das escolhas pode impactar significativamente as decisões, utilizando âncoras ou opções de isca para distorcer percepções.
Mitigando a Persuasão e Manipulação da IA
Embora tenham sido feitos esforços para mitigar os efeitos da persuasão da IA, muitos se concentram em resultados prejudiciais sem entender totalmente como a IA persuade. Avaliar e monitorar essas capacidades em ambientes de pesquisa é essencial.
Os desafios incluem disfarçar práticas enganosas dos participantes durante as avaliações. Outras estratégias podem envolver testes adversariais (red teaming) ou engenharia de prompts para classificar a persuasão prejudicial, garantindo que a IA gere respostas não manipulativas com informações relevantes ou factuais.
Aplicar classificações de persuasão prejudicial e integrar aprendizado de poucos e zero-shot também pode ajudar a melhorar as respostas da IA. Além disso, o aprendizado por reforço com feedback humano (RLHF) pode penalizar comportamentos prejudiciais em sistemas de IA.
Compreender os mecanismos internos da IA é crucial para identificar e mitigar tendências manipulativas, aprimorando nossa capacidade de responder efetivamente aos desafios impostos pela persuasão da IA.