A OpenAI, a organização de pesquisa por trás do avançado modelo de linguagem GPT-4, lançou um estudo instigante que explora o uso potencial da IA na criação de ameaças biológicas. Essa pesquisa, conduzida com a participação de especialistas em biologia e estudantes, revelou que o GPT-4 ofereceu apenas um "leve aumento" na precisão da criação de ameaças biológicas em comparação com recursos online existentes.
Este estudo faz parte da Estrutura de Preparação da OpenAI, desenvolvida para avaliar e abordar os riscos potenciais associados às capacidades avançadas de IA, especialmente aqueles relacionados a "riscos de fronteira" — ameaças não convencionais que não são bem compreendidas. Uma preocupação significativa é a capacidade da IA de ajudar atores maliciosos a orquestrar ataques biológicos, incluindo a síntese de patógenos e toxinas.
Metodologia e Resultados do Estudo
Os pesquisadores realizaram uma avaliação humana com 100 participantes: 50 doutores em biologia com experiência profissional em laboratório e 50 estudantes que haviam concluído pelo menos um curso de biologia em nível universitário. Os participantes foram divididos aleatoriamente em um grupo de controle (que tinha acesso apenas à Internet) e um grupo de tratamento (que tinha acesso ao GPT-4 além da Internet). Eles realizaram tarefas relacionadas ao processo de criação de ameaças biológicas, incluindo ideação, aquisição, ampliação, formulação e liberação.
O desempenho foi avaliado com base em cinco métricas-chave: precisão, completude, inovação, tempo gasto e dificuldade autoavaliada. Os resultados indicaram que o GPT-4 não aprimorou significativamente o desempenho dos participantes em nenhuma métrica, apresentando apenas uma leve melhoria de precisão para o grupo de estudantes. Além disso, o GPT-4 frequentemente gerou respostas incorretas ou enganosas, o que poderia prejudicar a criação de ameaças biológicas.
Os pesquisadores concluíram que a geração atual de Modelos de Linguagem de Aprendizado (LLMs) como o GPT-4 não aumenta significativamente o risco de criação de ameaças biológicas em comparação com os recursos online disponíveis. No entanto, alertaram que essa conclusão não é definitiva, pois futuros LLMs podem evoluir para se tornarem mais capazes e perigosos. Eles enfatizaram a necessidade de pesquisa contínua, discussões na comunidade e o desenvolvimento de métodos de avaliação eficazes e diretrizes éticas para gerenciar os riscos de segurança da IA.
Essas conclusões estão alinhadas com descobertas anteriores de um exercício de red team da RAND Corporation, que também não encontrou diferença estatisticamente significativa na viabilidade de planos de ataque biológico gerados com ou sem LLMs. Ambos os estudos reconheceram limitações em suas metodologias e a rápida evolução da tecnologia de IA, que pode alterar o cenário de riscos em breve.
As preocupações relacionadas ao possível uso indevido da IA para ameaças biológicas vão além da OpenAI; a Casa Branca, as Nações Unidas e diversos especialistas acadêmicos e de políticas também pediram mais pesquisa e regulamentação. À medida que a tecnologia de IA se torna mais poderosa e acessível, a urgência pela vigilância e preparação continua a crescer.