Engajar-se com a comunidade de tecnologia e IA no X (anteriormente Twitter) nesta semana trouxe importantes insights sobre as capacidades e limitações do mais recente chatbot de IA do Google, Gemini. Profissionais da tecnologia, influenciadores e escritores compartilharam capturas de tela de suas interações com o Gemini, destacando situações de geração de imagens bizarras, imprecisas e anacrônicas. Críticos argumentam que essas produções frequentemente favorecem noções de diversidade e "wokeness".
Pouco antes da publicação deste artigo, Jack Krawczyk, Diretor Sênior de Produto do Google, respondeu no X, reconhecendo que a empresa está ciente das imprecisões na geração de imagens históricas do Gemini e está trabalhando ativamente para corrigi-las. Krawczyk afirmou: “Estamos cientes de que o Gemini está apresentando imprecisões em algumas representações de imagens históricas e estamos trabalhando para resolver isso imediatamente. Como parte de nossos princípios de IA, projetamos nossas capacidades de geração de imagens para refletir nossa base de usuários global e levamos representação e viés a sério. Continuaremos a fazer isso para prompts abertos. Contextos históricos exigem mais nuance e melhoraremos nossos sistemas de acordo. Obrigado pelo seu feedback e pedimos que continue enviando!”
O Gemini foi apresentado anteriormente no ano passado com grande expectativa, posicionando-se como um modelo de IA de ponta, potencialmente rivalizando com o GPT-4 da OpenAI, que atualmente domina a maioria dos benchmarks de terceiros. No entanto, avaliações independentes indicaram que o Gemini teve um desempenho inferior em comparação ao modelo mais antigo da OpenAI, GPT-3.5, levando o Google a lançar versões avançadas, como Gemini Advanced e Gemini 1.5, no início deste ano, e descontinuar seu chatbot anterior, Bard.
Apesar dessas atualizações, o Gemini tem enfrentado críticas por sua relutância em gerar imagens históricas, como representações de soldados alemães da década de 1930, além de retratos questionáveis de nativos americanos e indivíduos de pele mais escura em contextos que não correspondem à precisão histórica. Por exemplo, a IA parece enfatizar erroneamente a diversidade ao retratar culturas europeias anteriores.
Usuários expressaram preocupações sobre a adesão percebida do Gemini à "wokeness", um termo que evoluiu de denotar consciência sobre desigualdade racial nos EUA para ser usado pejorativamente para criticar organizações que parecem excessivamente politicamente corretas. Curiosamente, alguns usuários notaram ajustes em tempo real nas produções do Gemini, sugerindo que o Google está ativamente refinando suas capacidades de geração de imagens. Um porta-voz do Google reiterou o compromisso de Krawczyk com a melhoria, reconhecendo a necessidade de representações mais precisas ao mesmo tempo em que enfatizava a importância da diversidade.
Yann LeCun, responsável pelas iniciativas de IA da Meta, destacou um caso preocupante onde o Gemini se recusou a gerar uma imagem dos protestos da Praça Tiananmen em 1989. LeCun argumentou que tais omissões ressaltam a necessidade de IA de código aberto, permitindo um controle mais amplo sobre os resultados. A revisão das saídas de imagem do Gemini ressalta um debate maior sobre como a IA deve lidar com tópicos sensíveis, incluindo diversidade, injustiças históricas e opressão.
O Google já enfrentou controvérsias semelhantes, como o incidente em 2015 envolvendo o Google Fotos e viés algorítmico contra indivíduos de pele escura. Além disso, a demissão do funcionário James Damore em 2017, devido às suas críticas às práticas de diversidade do Google, exemplifica os desafios que as empresas de tecnologia enfrentam nessas discussões.
Outras empresas também tiveram dificuldades com as implicações da IA. Por exemplo, o chatbot de IA da Microsoft, Tay, teve que ser desligado após produzir saídas prejudiciais e racistas. Ao tentar evitar erros do passado, a abordagem restritiva do Google para o Gemini sofreu críticas por distorcer a história em favor de sensibilidades modernas, evocando comparações com o "1984" de George Orwell, onde um regime autoritário suprime a verdade.
Críticas semelhantes seguiram o ChatGPT da OpenAI, com usuários tentando “desbloquear” o sistema para extrair informações restritas, refletindo a tensão contínua entre o desejo de livre expressão e a necessidade de mitigar conteúdos prejudiciais. Os desenvolvedores de IA se encontram em uma posição precária, equilibrando a necessidade de conteúdo permitido com as reações de usuários que sentem que as restrições levam a imprecisões históricas. Essa tensão alimentou pedidos por modelos de código aberto, que permitem autonomia individual enquanto levantam preocupações sobre os riscos potenciais associados ao conteúdo irrestrito.
A ascensão da IA generativa intensifica o debate sobre liberdade de expressão versus a necessidade de prevenir comportamentos socialmente prejudiciais. À medida que os avanços tecnológicos evoluem, a divisão sobre suas implicações na sociedade provavelmente continuará a gerar discussões contenciosas.