Dias após a exibição de impressionantes demonstrações fotorrealistas de seu novo modelo de geração de vídeo com IA, Sora, a OpenAI enfrentou um grande revés. Em 20 de fevereiro de 2024, o ChatGPT começou a produzir resultados incoerentes e sem sentido, levando os usuários a expressarem suas frustrações na rede social X (anteriormente Twitter).
Algumas respostas apresentaram outputs do ChatGPT que misturavam bizarros trechos em inglês e espanhol, gerando frases ininteligíveis repletas de palavras inventadas e repetições, desviando dos comandos dos usuários. Um usuário atento comparou essas sequências aleatórias de palavras ao inquietante "grafite extraterrestre" do tipo "horror estranho" do romance de Jeff VanderMeer, Annihilation, publicado em 2014. Essa comparação ressoou entre os leitores que percebiam uma qualidade assustadora, lembrando uma inteligência não humana fora de sintonia.
Enquanto alguns usuários especulavam humoristicamente sobre uma possível "rebelião dos robôs", ecoando narrativas populares da ficção científica de franquias como Terminator e Matrix, outros desconsideraram o incidente como meros erros de sistema. Muitos alertaram que tais falhas desafiavam a credibilidade das ferramentas de IA generativa em tarefas de escrita e programação.
Às 15h40 PST do dia 20 de fevereiro, a OpenAI reconheceu o problema em seu painel de status público. Pouco depois, às 15h47 PST, a empresa informou que tinha identificado a questão e estava ativamente trabalhando para resolvê-la. Quase às 17h PST, confirmaram que continuavam monitorando a situação.
No dia seguinte, às 10h30 PST, a conta verificada do ChatGPT no X tranquilizou os usuários: "Tivemos um pequeno deslize ontem, mas devemos estar de volta e operacionais!" Posteriormente, a conta do ChatGPT compartilhou uma atualização sobre o ocorrido, explicando que "uma otimização na experiência do usuário introduziu um bug na forma como o modelo processa a linguagem", mas garantiu que uma solução já havia sido implementada.
Apesar da resolução rápida, o incidente levantou preocupações sobre a confiabilidade e integridade do ChatGPT e de outros produtos da OpenAI, como o GPT-4 e o GPT-3.5, especialmente para tarefas críticas em setores como transporte, saúde e engenharia. A pergunta urgente que permanece é: Como prevenir problemas semelhantes no futuro?