Se você sente uma inexplicável vontade de sorrir para esta pedra, você não está sozinho. Como humanos, frequentemente atribuímos características humanas a objetos, um fenômeno conhecido como antropomorfismo, cada vez mais relevante em nossas interações com a inteligência artificial (IA).
O antropomorfismo se manifesta quando dizemos "por favor" e "obrigado" para chatbots ou expressamos admiração por produções de IA generativa que atendem às nossas expectativas. No entanto, o verdadeiro desafio surge quando esperamos que a IA reproduza seu desempenho em tarefas simples—como resumir um artigo—em assuntos mais complexos, como uma antologia de trabalhos científicos. Da mesma forma, quando a IA fornece uma resposta sobre os lucros da Microsoft, e esperamos que ela realize uma pesquisa de mercado com base em transcrições de lucros de várias empresas, nos colocamos em uma posição de desapontamento. Essas tarefas, embora pareçam similares, são fundamentalmente diferentes para os modelos de IA. Como explica Cassie Kozyrkov, "a IA é tão criativa quanto um pincel." O principal obstáculo à produtividade com IA reside na nossa capacidade de usá-la efetivamente como uma ferramenta.
Anecdoticamente, alguns clientes que implementaram licenças do Microsoft Copilot logo reduziram o número de usuários, pois não encontraram valor na ferramenta. Essa desconexão resulta de expectativas irreais sobre as capacidades da IA em comparação com a realidade de seu desempenho. Todos nós já vivemos aquele momento de percepção: "Ah, a IA não é boa para isso." Em vez de abandonar a IA generativa, podemos cultivar a intuição necessária para entender melhor a IA e o aprendizado de máquina, evitando as armadilhas do antropomorfismo.
Definindo Inteligência e Raciocínio em Aprendizado de Máquina
Nosso entendimento de inteligência sempre foi ambíguo. Quando um cachorro pede petiscos, isso é um comportamento inteligente? Quando um macaco usa uma ferramenta, isso demonstra inteligência? Da mesma forma, quando computadores realizam essas tarefas, podemos considerá-los inteligentes? Até recentemente, eu acreditava que os grandes modelos de linguagem (LLMs) não poderiam realmente "raciocinar". No entanto, uma discussão recente com fundadores de IA confiáveis nos levou a propor uma solução: um recurso para avaliar os níveis de raciocínio na IA. Assim como temos rubricas para compreensão de texto e raciocínio quantitativo, a introdução de uma rubrica específica para IA poderia ajudar a transmitir as capacidades de raciocínio esperadas de soluções impulsionadas por LLMs, junto com exemplos do que não é realista.
Expectativas Irrealistas em Relação à IA
Os humanos tendem a ser mais compreensivos com erros cometidos por pessoas. Embora os carros autônomos sejam estatisticamente mais seguros do que motoristas humanos, acidentes geram grande clamor. Essa resposta amplifica a decepção quando a IA falha em tarefas que esperaríamos que humanos executassem bem. Muitos descrevem a IA como um vasto exército de "estagiários", mas as máquinas podem errar de maneiras que os humanos não fazem, mesmo superando-os em várias áreas.
Como resultado, menos de 10% das organizações conseguem desenvolver e implementar projetos de IA generativa com sucesso. Desalinhamento com os valores empresariais e custos imprevistos relacionados à curadoria de dados complicam ainda mais essas iniciativas. Para superar esses obstáculos e alcançar o sucesso dos projetos, é essencial capacitar os usuários de IA com a intuição necessária para saber quando e como usar a IA de forma eficaz.
Treinamento para Desenvolver Intuição com IA
O treinamento é crucial para se adaptar ao cenário de IA em rápida evolução e para redefinir nossa compreensão da inteligência em aprendizado de máquina. Embora o termo "treinamento em IA" possa parecer vago, ele pode ser categorizado em três áreas principais:
1. Segurança: Aprender a usar a IA de maneira responsável e evitar novos esquemas de phishing aprimorados por IA.
2. Alfabetização: Compreender o que a IA pode fazer, o que esperar dela e seus potenciais riscos.
3. Preparação: Dominar o uso habilidoso e eficiente de ferramentas impulsionadas por IA para melhorar a qualidade do trabalho.
O treinamento em segurança de IA protege sua equipe assim como joelheiras e cotoveleiras para um novo ciclista; pode prevenir alguns arranhões, mas não os preparará para cenários mais desafiadores. Por outro lado, o treinamento em prontidão para IA capacita sua equipe a maximizar o potencial da IA e do aprendizado de máquina. Quanto mais oportunidades você oferecer à sua equipe para interagir de forma segura com ferramentas de IA generativa, mais habilidosos eles se tornarão em reconhecer o que funciona e o que não funciona.
Embora só possamos especular sobre as capacidades que surgirão no próximo ano, ser capaz de conectar esses desenvolvimentos a uma rubrica definida de níveis de raciocínio preparará melhor sua equipe para o sucesso. Saiba quando dizer “não sei”, quando buscar assistência e, mais importante, quando um problema está além do alcance de uma ferramenta específica de IA.