Um Lembrete Sobre Chatbots Powered by AI
Os chatbots impulsionados por IA, como o ChatGPT, podem apresentar informações fabricadas com confiança, assim como um GPS que erroneamente direciona você para atravessar um lago. Este lembrete baseia-se em um experimento recente realizado pelo Nieman Lab, que buscou determinar se o ChatGPT conseguiria fornecer links precisos para artigos de organizações de notícias com contratos lucrativos com a OpenAI.
Os resultados foram preocupantes. Em vez de entregar URLs corretas, o ChatGPT gerou links completamente fictícios que levam a páginas de erro 404. Esse fenômeno é frequentemente referido na indústria de IA como “alucinações” — um termo que descreve apropriadamente um sistema que distorce informações com confiança. Andrew Deck do Nieman Lab pediu ao ChatGPT para gerar links para artigos exclusivos de dez grandes publicadores. Os resultados refletiram testes anteriores, notavelmente um envolvendo o Business Insider, que produziu URLs igualmente incorretos.
Um representante da OpenAI reconheceu ao Nieman Lab que a empresa ainda está desenvolvendo um sistema para unir as capacidades de IA conversacional com conteúdo de notícias em tempo real. Esse sistema visa garantir a atribuição correta e links precisos para materiais de origem, mas detalhes sobre o cronograma de lançamento e confiabilidade permanecem incertos.
Apesar dessas incertezas, as organizações de notícias continuam a fornecer conteúdo substancial para os modelos da OpenAI em troca de compensação monetária, muitas vezes sacrificando sua integridade no processo. Enquanto isso, empresas de IA aproveitam conteúdo não contratado de diversas fontes para treinar seus modelos. Mustafa Suleyman, chefe de IA da Microsoft, descreveu todo o conteúdo publicado na internet como “software livre”, reforçando uma cultura de exploração. Na época deste texto, a avaliação de mercado da Microsoft era de $3,36 trilhões.
A mensagem principal é clara: se o ChatGPT está fabricando URLs, também é provável que esteja fabricando fatos. Em sua essência, a IA generativa funciona como um autocompletar avançado, prevendo apenas a próxima palavra lógica em uma sequência, sem verdadeira compreensão. Por exemplo, quando testei chatbots líderes para ajudar a solucionar o Spelling Bee do New York Times, eles enfrentaram dificuldades significativas. Isso indica que confiar na IA generativa para informações factuais é arriscado, no mínimo.