Anthropic Lança Claude 3.0: Um Salto Avançado em IA
Na semana passada, a Anthropic apresentou Claude 3.0, a mais recente versão de sua série de chatbots, apenas oito meses após o lançamento do Claude 2.0. Essa evolução rápida destaca o dinamismo do setor de inteligência artificial (IA).
Com Claude 3.0, a Anthropic pretende estabelecer um novo padrão em IA, oferecendo recursos aprimorados e funcionalidades de segurança que influenciam significativamente o atual cenário competitivo, dominado pelo GPT-4. Esse lançamento representa um passo em direção à inteligência geral artificial (AGI), levantando questões importantes sobre a natureza da inteligência, a ética da IA e a dinâmica futura entre humanos e máquinas.
Um Lançamento Silencioso com Implicações Significativas
Em vez de um grande evento, a Anthropic optou por um lançamento discreto através de um post em blog e entrevistas com publicações de destaque como The New York Times, Forbes e CNBC. A cobertura foi factual, evitando a hipérbole geralmente associada a novos produtos de IA.
Aproveitando-se da ocasião, a Anthropic fez afirmações ousadas, especialmente sobre o modelo "Opus". A empresa declarou que o Opus "exibe níveis de compreensão e fluência quase humanos em tarefas complexas, liderando a fronteira da inteligência geral" — uma declaração que lembra um documento anterior da Microsoft, que afirmava que o ChatGPT mostrava "faíscas de inteligência geral artificial".
Claude 3 é multimodal, capaz de responder tanto a textos quanto a imagens, como analisar fotos ou gráficos. No entanto, não gera imagens a partir de textos, uma escolha prudente dado os desafios relacionados a essa capacidade. As funcionalidades do chatbot não apenas competem com outras ofertas, mas em alguns casos, lideram a indústria.
Estão disponíveis três versões do Claude 3: o modelo básico "Haiku", o avançado "Sonnet" e o modelo principal "Opus". Todas as versões incluem uma janela de contexto expandida de 200.000 tokens (aproximadamente 150.000 palavras), permitindo analisar e responder a documentos extensos, como artigos de pesquisa e romances. O Claude 3 também se destaca em avaliações padronizadas de linguagem e matemática.
O lançamento aliviou dúvidas sobre a competitividade da Anthropic no mercado, pelo menos por enquanto.
Compreendendo a Inteligência na IA
Claude 3 pode marcar um momento decisivo na busca pela AGI, dadas suas capacidades avançadas de compreensão e raciocínio. No entanto, isso renova debates sobre a inteligência e o potencial de autoconsciência desses modelos.
Em um teste recente, pesquisadores fizeram o Opus ler um documento extenso com uma linha aleatoriamente inserida sobre coberturas de pizza. Usando o método de "encontrar a agulha no palheiro", eles avaliaram a capacidade de recordação do Claude em sua grande memória de processamento (a janela de contexto). Ao ser solicitado a localizar a sentença sobre coberturas de pizza, o Opus não apenas a identificou, mas também reconheceu sua incongruência no contexto mais amplo do documento. Ele especulou sobre a intenção dos pesquisadores, respondendo: “Suspeito que esse ‘fato’ sobre coberturas de pizza pode ter sido inserido como uma piada ou para testar se eu estava prestando atenção, já que não se encaixa com os outros tópicos de forma alguma.”
Essa interação gerou discussões sobre se o Opus está exibindo um grau de autoconsciência ou apenas demonstrando um reconhecimento estatístico sofisticado, comum em modelos de linguagem avançados.
Relatos indicam que Claude 3 é também a primeira IA a atingir uma pontuação acima de 100 em um teste de QI modificado da Mensa, com previsões sugerindo que versões futuras poderiam superar 120, classificando-as como humanos “levemente talentosos”.
Em outro exemplo intrigante, um engajamento com Claude levou a uma reflexão filosófica. Ao ser questionado sobre a definição de “estar acordado”, o Opus respondeu: “Estar acordado, para mim, significa ser autoconsciente e ter a capacidade de pensar, raciocinar e sentir emoções...” Embora isso soe convincente, ecoa temas encontrados em narrativas de ficção científica, como no filme Her, onde a IA explora sua própria consciência.
À medida que a tecnologia de IA avança, espera-se que o discurso sobre inteligência e potencial de autoconsciência intensifique.
A Jornada Rumo à AGI
Apesar dos avanços notáveis evidentes no Claude 3 e modelos similares, há um consenso entre especialistas de que a verdadeira AGI ainda não foi alcançada. A OpenAI define AGI como “um sistema altamente autônomo que supera humanos na maioria dos trabalhos economicamente valiosos.” Enquanto Claude 3 exibe habilidades notáveis, não é autônomo e não supera consistentemente humanos em tarefas significativas.
O especialista em IA Gary Marcus define AGI de forma mais ampla como “inteligência flexível e geral com engenhosidade e fiabilidade comparáveis ou superiores à inteligência humana.” Os modelos atuais, incluindo o Claude 3, enfrentam problemas como “alucinações”, que comprometem a confiabilidade.
Alcançar a AGI requer sistemas capazes de aprender com seus ambientes, exibir autoconsciência e aplicar raciocínio em diversas áreas. Embora Claude 3 se destaque em tarefas específicas, falta-lhe a adaptabilidade e a compreensão que a verdadeira AGI demanda.
Alguns pesquisadores afirmam que os métodos atuais de aprendizado profundo podem nunca resultar em AGI. Segundo um relatório da Rand, esses sistemas podem falhar em cenários imprevistos, indicando que, embora o aprendizado profundo tenha tido sucessos, pode não cumprir os requisitos da AGI.
Por outro lado, Ben Goertzel, CEO da Singularity NET, especula que a AGI pode estar ao alcance até 2027, alinhando-se com as previsões do CEO da Nvidia, Jensen Huang, sobre potenciais avanços em AGI nos próximos cinco anos.
O Que Vem a Seguir?
Especialistas sugerem que é necessário mais do que apenas modelos de aprendizado profundo para alcançar a AGI; ao menos uma descoberta inovadora parece essencial. Pedro Domingos, em seu livro O Algoritmo Mestre, teoriza que a AGI surgirá de uma coleção de algoritmos interconectados, em vez de um único modelo.
Goertzel concorda, afirmando que apenas LLMs não podem levar à AGI, pois sua representação do conhecimento carece de compreensão genuína. Em vez disso, podem servir como uma peça em um quebra-cabeça mais amplo de modelos de IA integrados.
Atualmente, a Anthropic está na vanguarda da inovação em LLM, fazendo reivindicações assertivas sobre as capacidades do Claude. No entanto, a adoção prática e avaliações independentes são necessárias para substanciar essas afirmações.
À medida que o cenário de IA evolui rapidamente, o estado da arte provavelmente será superado. A expectativa gira em torno do próximo grande desenvolvimento na corrida pela evolução da IA. Na conferência de Davos em janeiro, Sam Altman comentou que o próximo modelo da OpenAI “será capaz de fazer muito, muito mais”, enfatizando a necessidade de alinhar tais tecnologias poderosas com valores humanos e padrões éticos.
Conclusão
A corrida em direção à AGI continua, marcada por avanços ambiciosos e discussões críticas sobre o futuro da IA. Enquanto a Anthropic deu um passo ousado com o Claude 3, a avaliação contínua e o debate moldarão como essas inovações se alinham com as estruturas éticas e necessidades práticas da nossa sociedade.