As recentes desenvolvimentos de emprego de Sam Altman e as especulações em torno do inovador modelo Q* da OpenAI reacenderam o interesse nas oportunidades e riscos associados à inteligência geral artificial (AGI). A AGI tem como objetivo realizar tarefas intelectuais semelhantes às humanas. Os rápidos avanços em inteligência artificial, especialmente por meio do aprendizado profundo, geraram entusiasmo e preocupação acerca da potencial chegada da AGI. Várias organizações, incluindo a OpenAI e a xAI de Elon Musk, estão comprometidas em avançar em direção à AGI, levantando uma questão crítica: os avanços da IA de hoje estão nos guiando para a AGI?
Limitações do Aprendizado Profundo
O aprendizado profundo, um método proeminente de aprendizado de máquina que envolve redes neurais artificiais, é a base do ChatGPT e de boa parte da IA moderna. Elogiado por sua capacidade de gerenciar diversos tipos de dados com pré-processamento mínimo, muitos esperam que o aprendizado profundo desempenhe um papel fundamental no desenvolvimento da AGI. No entanto, o aprendizado profundo apresenta limitações notáveis. Criar modelos eficazes exige vastos conjuntos de dados e recursos computacionais significativos. Esses modelos extraem regras estatísticas com base nos dados de treinamento, que são então aplicadas a novas informações para gerar respostas. Essa abordagem repousa em uma lógica preditiva; os modelos atualizam regras à medida que novos fenômenos surgem, mas sua vulnerabilidade às incertezas do mundo real dificulta sua adequação para atingir os objetivos da AGI. Por exemplo, um incidente em junho de 2022 envolvendo um Robotaxi ilustra esse risco: o veículo falhou em uma situação imprevista que não estava treinado para enfrentar, levando a erros de decisão.
O Dilema do 'E Se'
Os humanos, os modelos da AGI, não formula regras exaustivas para cada cenário. Em vez disso, interagimos com nosso ambiente por meio da percepção em tempo real, utilizando o conhecimento existente para entender o contexto e os fatores influentes. Diferentemente dos modelos de aprendizado profundo que classificam objetos com base em critérios fixos, os humanos utilizam uma abordagem flexível, adaptando regras estabelecidas conforme necessário para tomar decisões eficazes. Por exemplo, se você encontrar um objeto cilíndrico desconhecido enquanto faz trilha, um modelo de aprendizado profundo exigiria que você analisasse várias características e classificasse o objeto como uma ameaça (como uma cobra) ou inofensivo (como uma corda) antes de agir. Em contrapartida, um humano avaliaria a situação à distância, atualizando continuamente sua compreensão e decidindo com base em uma gama mais ampla de experiências passadas e ações potenciais. Essa metodologia nuançada enfatiza a exploração de alternativas em vez de previsões rígidas—sugerindo que a realização da AGI pode depender mais da melhoria de nossa capacidade de raciocínio "e se" do que da pura predição.
Tomada de Decisões sob Incerteza Profunda: Um Caminho a Seguir
Estruturas inovadoras como a Tomada de Decisões sob Incerteza Profunda (DMDU) oferecem estratégias promissoras para a AGI. Abordagens DMDU, como a Tomada de Decisões Robusta, avaliam como diferentes decisões podem se comportar em vários cenários futuros, sem necessidade de re-treinamento constante. Elas se concentram na identificação de fatores-chave que determinam os resultados das decisões, visando encontrar soluções robustas que proporcionem resultados aceitáveis em diferentes contextos. Diferentemente das soluções convencionais de aprendizado profundo que priorizam a otimização, que podem falhar sob condições imprevisíveis (como evidenciado pelas interrupções na cadeia de suprimentos durante a COVID-19), os métodos DMDU buscam alternativas resilientes que podem se adaptar a uma variedade de ambientes, oferecendo uma base valiosa para IA capaz de lidar com incertezas do mundo real.
Decisão Robusta em Veículos Autônomos
O desenvolvimento de veículos totalmente autônomos (AVs) serve como um exemplo prático dessa metodologia. Os AVs devem manobrar em condições diversas e imprevisíveis, espelhando de perto a tomada de decisão humana no trânsito. Apesar dos pesados investimentos em aprendizado profundo para a autonomia total, esses sistemas frequentemente enfrentam dificuldades em cenários incertos. As limitações inerentes à modelagem de todas as possíveis situações exigem esforços contínuos para enfrentar desafios inesperados na tecnologia AV. Uma solução potencial envolve a adoção de uma estrutura de tomada de decisão robusta. Sensores dos AVs coletariam dados em tempo real para avaliar várias decisões—como acelerar, mudar de faixa ou frear—em cenários de tráfego específicos. Se houver dúvidas sobre as respostas algorítmicas padrão, o sistema poderia analisar as vulnerabilidades de diferentes escolhas dentro desse contexto, reduzindo a dependência de re-treinamento extenso de dados e melhorando a adaptabilidade às incertezas do mundo real. Essa mudança poderia aprimorar o desempenho dos AVs ao priorizar a flexibilidade na tomada de decisões em vez da busca por previsões perfeitas.
Enfatizando o Contexto da Decisão para o Avanço da AGI
À medida que a tecnologia de IA continua a evoluir, pode ser essencial afastar-se do paradigma do aprendizado profundo e focar no contexto da decisão para facilitar o progresso em direção à AGI. Embora o aprendizado profundo tenha se mostrado eficaz em inúmeras aplicações, ele não é suficiente para a realização da AGI. As metodologias DMDU poderiam abrir caminho para uma abordagem de IA mais robusta, orientada pela decisão, que efetivamente aborde as incertezas do mundo real.