Um recente artigo de 23 pesquisadores, acadêmicos e criativos da área de IA defende que a implementação de proteções legais e técnicas de "porto seguro" é fundamental para permitir avaliações independentes de produtos de IA. Essa proteção é necessária para pesquisadores, jornalistas e artistas que realizam investigações de "boa-fé" sobre essas tecnologias.
O documento destaca uma barreira significativa: os termos de serviço de grandes provedores de IA—como OpenAI, Google, Anthropic, Inflection, Meta e Midjourney—frequentemente restringem legalmente a pesquisa sobre vulnerabilidades em IA. Os autores pedem que essas empresas apoiem a pesquisa em IA de interesse público, oferecendo indenizações contra suspensões de conta e repercussões legais.
"Embora esses termos sejam destinados a desestimular o uso malicioso, eles também prejudicam inadvertidamente a pesquisa em segurança da IA", observa o post no blog que acompanha o artigo. As empresas podem aplicar essas políticas de forma rigorosa, limitando pesquisas impactantes.
Os co-autores Shayne Longpre, do MIT Media Lab, e Sayash Kapoor, da Universidade de Princeton, enfatizaram a importância dessa questão no contexto de uma recente ação judicial do New York Times. A OpenAI rotulou a avaliação do ChatGPT pelo Times como "hacking", ao que o advogado principal do Times respondeu que a interpretação da OpenAI distorce uma investigação legítima como uma atividade maliciosa.
Longpre mencionou a defesa anterior do Knight First Amendment Institute, que visa proteger jornalistas que investigam redes sociais. “Aprendemos com essa iniciativa ao propor um porto seguro para a pesquisa em IA”, explicou. “Com a IA, a falta de clareza sobre uso e danos associados torna o acesso à pesquisa vital.”
O artigo, intitulado "Um Porto Seguro para Avaliação de IA e Red Teaming", cita casos de suspensões de contas durante pesquisas de interesse público em empresas como OpenAI, Anthropic, Inflection e Midjourney, sendo a Midjourney a que mais tem se destacado por suas frequentes suspensões. O coautor e artista Reid Southen enfrentou múltiplas proibições após investigar possíveis infrações de direitos autorais nos outputs da Midjourney, revelando que a plataforma poderia infringir direitos autorais sem a intenção dos usuários.
“A Midjourney me banou três vezes, custando quase $300”, relatou Southen. “A primeira suspensão ocorreu oito horas após a publicação dos meus resultados, e posteriormente eles revisaram seus termos sem notificar os usuários, transferindo a responsabilidade por conteúdos infratores.”
Southen defende avaliações independentes, argumentando que as empresas demonstraram uma falta de disposição para autoavaliação, prejudicando os detentores de direitos autorais nesse processo.
A transparência é fundamental nessas discussões. Longpre afirmou a importância de permitir que pesquisadores independentes investiguem as capacidades e falhas dos produtos de IA, desde que demonstrem um uso responsável. Ele expressou o desejo de colaborar com as empresas para melhorar a transparência e aumentar a segurança.
Kapoor reconheceu que, embora as empresas tenham preocupações legítimas em relação ao uso indevido dos serviços, as políticas não devem ser aplicadas de forma uniforme a usuários maliciosos e a pesquisadores que realizam trabalhos críticos de segurança. Ele mencionou conversas em andamento com as empresas afetadas, afirmando: “A maioria engajou-se com nossa proposta, e algumas começaram a adaptar seus termos—particularmente a OpenAI, que modificou sua redação após nosso rascunho inicial.”
No geral, o artigo defende uma abordagem equilibrada que promove a segurança da IA e apoia a pesquisa por meio de medidas protetivas claras.