Manifestantes se Reúnem em Frente ao Escritório da OpenAI Contra o Uso Militar de IA e o Desenvolvimento de AGI

Dezenas de manifestantes se reuniram na noite de segunda-feira em frente à sede da OpenAI, em São Francisco, expressando suas preocupações sobre o desenvolvimento da inteligência artificial (IA) pela empresa, enquanto os funcionários deixavam o trabalho. A manifestação, organizada por Pause AI e No AGI, exigiu que os engenheiros da OpenAI interrompessem seus trabalhos em sistemas avançados de IA, incluindo o chatbot ChatGPT. A mensagem era clara: interromper a busca pela inteligência geral artificial (AGI), que poderia superar as capacidades humanas, e evitar afinidades militares.

O protesto foi parcialmente motivado pela recente decisão da OpenAI de remover da política de uso uma cláusula que proibia o uso militar de suas tecnologias de IA. Pouco depois da mudança na política, surgiram relatos indicando que a OpenAI havia conquistado o Pentágono como cliente. “Exigimos que a OpenAI encerre sua relação com o Pentágono e rejeite todos os clientes militares,” afirmava a descrição do evento. “Se os limites éticos podem ser alterados por conveniência, não podem ser confiáveis.”

Veículos de mídia conversaram com os organizadores do protesto para entender seus objetivos e definições de sucesso. “A missão do No AGI é conscientizar sobre os perigos do desenvolvimento da AGI,” disse Sam Kirchener, líder do No AGI. “Devemos focar em iniciativas como a emulação completa do cérebro que priorizam o pensamento humano na inteligência.”

Holly Elmore, principal organizadora do Pause AI, expressou o desejo de seu grupo por “uma pausa global e indefinida no desenvolvimento da AGI até que seja considerada segura.” Ela enfatizou: “Encerrar os laços militares é um limite crucial.”

O protesto ocorre em meio a uma crescente preocupação pública sobre as implicações éticas da IA. O envolvimento da OpenAI com o Pentágono despertou um debate sobre a militarização da IA e seus impactos potenciais. As preocupações dos manifestantes se concentram na AGI — a capacidade de máquinas realizarem tarefas intelectuais humanas em uma velocidade e escala sem precedentes. Seus receios vão além do deslocamento de empregos e autonomia em conflitos, refletindo uma ansiedade sobre dinâmicas de poder e tomada de decisões na sociedade.

“Se conseguirmos construir a AGI, corremos o risco de perder significados essenciais em nossas vidas devido ao que chamamos de ameaça psicológica, onde a AGI assume tudo,” alertou Kirchener. “As pessoas não encontrarão mais significado no trabalho, o que é crítico para a nossa sociedade atual.” Elmore acrescentou: “A autorregulação não é suficiente; precisa haver supervisão externa. A OpenAI frequentemente reverte seus compromissos — Sam Altman afirmou em junho que o conselho poderia demiti-lo, mas em novembro, ele não poderia ser removido. Inconsistências semelhantes surgem em sua política de uso e contratos militares — essas políticas parecem ineficazes se permitem ações irrestritas.”

Embora tanto o Pause AI quanto o No AGI compartilhem o objetivo de interromper o desenvolvimento da AGI, suas abordagens diferem. O Pause AI está aberto à ideia de um desenvolvimento seguro da AGI, enquanto o No AGI se opõe firmemente, citando potenciais ameaças psicológicas e a perda de significado individual. Ambos os grupos indicam que este protesto não será o último, e outros preocupados com os riscos da IA podem se engajar através de seus sites e redes sociais. Por enquanto, o Vale do Silício continua seu rápido progresso rumo a um futuro incerto da IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles