Em uma rara explosão de sinceridade, LeCun da Meta critica a OpenAI e os vencedores do Prêmio Turing.

O Cientista-Chefe de IA da Meta, Yann LeCun, criticou fortemente líderes proeminentes de IA que defendem regulamentações por medo de que a IA possa representar uma ameaça existencial para a humanidade, especialmente com a primeira cúpula global de IA no Reino Unido programada para esta semana. Em uma postagem no X (anteriormente Twitter), LeCun desconsiderou esses cenários apocalípticos como infundados. "Os medos catastrofistas que você propaga são absurdos," afirmou. "Sistemas de IA poderosos, orientados por objetivos bem definidos — acompanhados de diretrizes apropriadas — são seguros e controláveis, pois estabelecemos esses parâmetros."

LeCun destacou que os atuais Modelos de Linguagem Auto-Regressivos (LLMs) carecem desses objetivos orientadores, alertando contra extrapolar suas limitações atuais para futuros sistemas de IA. Ele ainda acusou os líderes de três grandes empresas de IA — o CEO da OpenAI, Sam Altman; o CEO da Google DeepMind, Demis Hassabis; e o CEO da Anthropic, Dario Amodei — de conluio para manter modelos de IA fechados, afirmando: "Altman, Hassabis e Amodei estão na vanguarda de um intenso lobby corporativo visando capturar estruturas regulatórias na indústria de IA."

Voltando-se para outros vencedores do Prêmio Turing, ele desafiou o professor do MIT Max Tegmark, juntamente com Geoff Hinton e Yoshua Bengio, afirmando que eles, inadvertidamente, fornecem munição àqueles que defendem restrições à pesquisa e desenvolvimento abertos de IA. LeCun defende a pesquisa de IA aberta como um meio fundamental para democratizar o acesso à tecnologia, enfatizando que a abordagem da Meta é centrada em iniciativas de código aberto, exemplificadas por seu modelo de linguagem robusto, Llama 2.

Apesar das preocupações do governo dos EUA de que a IA de código aberto poderia capacitar atores maliciosos, LeCun sustenta que limitar o acesso a modelos de IA é contraproducente. "Se suas campanhas movidas pelo medo tiverem sucesso, elas inevitavelmente levarão a uma catástrofe: controle concentrado da IA por um seleto grupo de empresas. A maioria dos nossos colegas acadêmicos apoia fortemente a pesquisa de IA aberta. Muito poucos endossam os cenários apocalípticos que você apresentou."

LeCun argumenta que plataformas de IA abertas devem ser a norma para incentivar contribuições diversas e engajamento democrático no campo. "Em um futuro onde os sistemas de IA incorporam o conhecimento e a cultura humanos coletivos, é essencial que as plataformas permaneçam de código aberto e acessíveis. Essa abertura é crucial para que essas plataformas reflitam com precisão a totalidade das experiências e percepções humanas," explicou. "As contribuições devem ser feitas em conjunto, semelhante ao Wikipédia, o que é inviável sem plataformas abertas."

Ele alertou que regulamentações rigorosas poderiam sufocar a IA de código aberto, levando a um controle monopolista das plataformas de IA por algumas empresas da Costa Oeste dos EUA e da China. "Quais seriam as implicações disso para a democracia e a diversidade cultural? Isso é o que realmente me preocupa."

Os comentários críticos de LeCun surgem em meio a relatos de que a próxima cúpula no Reino Unido se concentrará principalmente nos riscos apresentados pela IA. Respondendo a essas preocupações, ele brincou no Twitter sobre o Primeiro-Ministro britânico contrair o "Risco Fatalista Existencial da Ilusão de IA (EFRAID)", torcendo para que não se espalhasse para outros líderes mundiais. Embora tenha sido convidado para a cúpula, suas observações geraram debate com Tegmark, intensificando a discussão sobre o tema.

Esse discurso se intensificou após Hinton, frequentemente chamado de "padrinho da IA", alertar em 27 de outubro que empresas planejam desenvolver modelos utilizando poder computacional exponencialmente maior em um futuro próximo, levantando preocupações sobre a falta de regulamentações que governem suas capacidades. LeCun respondeu à afirmação de Hinton, enfatizando que se os futuros sistemas de IA seguirem arquiteturas existentes, poderão alcançar altos níveis de conhecimento, mas ainda carecerão de raciocínio, inventividade e compreensão do mundo físico.

"Os sistemas futuros devem adotar arquiteturas inovadoras que os capacitem a raciocinar, planejar e operar dentro de objetivos e diretrizes definidos," afirmou. "Essas estruturas orientadas por propósitos garantirão segurança e controle, pois ditaremos seus objetivos, prevenindo qualquer intenção predominante de dominar." Ele discordou veementemente da noção de que sistemas avançados de IA buscarão necessariamente sobrepujar a humanidade, argumentando que tais crenças são fundamentalmente falhas.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles