A IA se destacou como um tema central em Davos 2024, com mais de duas dezenas de sessões dedicadas a suas implicações, que abrangem desde educação até regulamentação, conforme ressaltado pela Fortune.
Os participantes incluíram um notável grupo de líderes de IA, como o CEO da OpenAI, Sam Altman; o CEO da Inflection AI, Mustafa Suleyman; o pioneiro da IA, Andrew Ng; o principal cientista de IA da Meta, Yann LeCun; e o CEO da Cohere, Aidan Gomez.
A discussão em Davos passou por uma mudança significativa em comparação ao otimismo de 2023. Chris Padilla, VP de assuntos governamentais e regulatórios da IBM, comentou ao The Washington Post: “No ano passado, a atmosfera era de espanto; agora, é sobre avaliar riscos e garantir a confiabilidade da IA.”
As preocupações principais deste ano incluíram o potencial da desinformação desenfreada, deslocamento de empregos e um crescente abismo econômico entre nações ricas e empobrecidas. A questão mais urgente parecia ser a ascensão da desinformação facilitada pela tecnologia deepfake—imagens, vídeos e áudios manipulados que podem distorcer a realidade e minar a confiança pública. Um incidente recente, envolvendo chamadas automatizadas que imitavam a voz do presidente Joe Biden antes das primárias de New Hampshire, exemplificou essa ameaça.
Como afirmou a professora da Carnegie Mellon University, Kathleen Carley, “Isto é apenas a ponta do iceberg em termos de potencial supressão de eleitores ou ataques à integridade eleitoral.” O consultor de IA empresarial, Reuven Cohen, também alertou que os avanços em IA poderiam resultar em um aumento de conteúdo deepfake nas eleições de 2024.
Apesar de pesquisas em andamento, um método confiável para detectar deepfakes ainda não foi encontrado. Como reportado por Jeremy Kahn na Fortune, “Precisamos de uma solução rapidamente; a desconfiança é prejudicial à democracia.”
Essa mudança de foco do otimismo para a cautela levou Suleyman a defender uma “estratégia de guerra fria” para lidar com as ameaças relacionadas à IA. Ele destacou que, à medida que as tecnologias de IA se tornam mais acessíveis, podem ser mal utilizadas por entidades hostis, resultando em caos que supera os esforços de verificação.
As preocupações em torno da IA persistem há décadas, notadamente representadas no filme de 1968 “2001: Uma Odisseia no Espaço”. Mesmo tecnologias de consumo, como o brinquedo Furby, geraram alarmes sobre vulnerabilidades de segurança, levando a NSA a proibir seu uso por receios de que pudessem funcionar como dispositivos de vigilância.
A conversa intensificou-se com previsões de que a Inteligência Geral Artificial (AGI) poderia ser alcançada em breve. Embora a AGI—definida como a IA que supera a inteligência humana em diversas tarefas—continue sendo um tópico controverso, figuras como Altman e Gomez expressam otimismo sobre sua chegada iminente, enquanto outros, incluindo LeCun, pedem cautela, argumentando que ainda são necessários avanços significativos.
O sentimento público em relação à IA permanece misto, como mostrado no Barômetro de Confiança Edelman de 2024, que revela que 35% dos entrevistados rejeitam a IA, enquanto 30% a aceitam. A conscientização sobre os benefícios potenciais da IA é moderada pela preocupação com seus riscos. As pessoas tendem a abraçar os avanços em IA quando guiadas por especialistas e garantidas quanto ao controle sobre suas implicações.
Em última análise, o caminho a seguir envolve não apenas respostas rápidas aos desenvolvimentos da IA, mas também uma visão equilibrada das consequências a longo prazo. Como afirmou Roy Amara, “Tendemos a superestimar o efeito de uma tecnologia no curto prazo e subestimar no longo prazo.”
Apesar das investigações e experimentos em andamento, o sucesso generalizado em IA não é garantido. Rumman Chowdhury, CEO da ONG Humane Intelligence, previu um iminente “vale da desilusão” em 2024, onde as expectativas podem não se alinhar com a realidade.
Este ano pode ser crucial para avaliar o potencial transformador da IA. À medida que organizações exploram a IA generativa para usos pessoais e profissionais, é fundamental conectar o entusiasmo tecnológico ao valor tangível. Segundo Julie Sweet, CEO da Accenture, os workshops atualmente oferecidos a líderes de C-suite representam passos essenciais para realizar o potencial da IA.
Ao navegarmos pelo complexo panorama da IA, a tomada de decisões prudentes e o pensamento inovador serão fundamentais para garantir que a IA amplifique o potencial humano, mantendo nossos valores e integridade compartilhados. A responsabilidade de moldar um futuro onde a IA enriquece a experiência humana, em vez de determiná-la, é nossa.