Especialistas Defendem um 'Porto Seguro' Legal para Permitir que Pesquisadores, Jornalistas e Artistas Avaliem Tecnologias de IA

Um recente artigo de 23 pesquisadores, acadêmicos e criativos da área de IA defende que a implementação de proteções legais e técnicas de "porto seguro" é fundamental para permitir avaliações independentes de produtos de IA. Essa proteção é necessária para pesquisadores, jornalistas e artistas que realizam investigações de "boa-fé" sobre essas tecnologias.

O documento destaca uma barreira significativa: os termos de serviço de grandes provedores de IA—como OpenAI, Google, Anthropic, Inflection, Meta e Midjourney—frequentemente restringem legalmente a pesquisa sobre vulnerabilidades em IA. Os autores pedem que essas empresas apoiem a pesquisa em IA de interesse público, oferecendo indenizações contra suspensões de conta e repercussões legais.

"Embora esses termos sejam destinados a desestimular o uso malicioso, eles também prejudicam inadvertidamente a pesquisa em segurança da IA", observa o post no blog que acompanha o artigo. As empresas podem aplicar essas políticas de forma rigorosa, limitando pesquisas impactantes.

Os co-autores Shayne Longpre, do MIT Media Lab, e Sayash Kapoor, da Universidade de Princeton, enfatizaram a importância dessa questão no contexto de uma recente ação judicial do New York Times. A OpenAI rotulou a avaliação do ChatGPT pelo Times como "hacking", ao que o advogado principal do Times respondeu que a interpretação da OpenAI distorce uma investigação legítima como uma atividade maliciosa.

Longpre mencionou a defesa anterior do Knight First Amendment Institute, que visa proteger jornalistas que investigam redes sociais. “Aprendemos com essa iniciativa ao propor um porto seguro para a pesquisa em IA”, explicou. “Com a IA, a falta de clareza sobre uso e danos associados torna o acesso à pesquisa vital.”

O artigo, intitulado "Um Porto Seguro para Avaliação de IA e Red Teaming", cita casos de suspensões de contas durante pesquisas de interesse público em empresas como OpenAI, Anthropic, Inflection e Midjourney, sendo a Midjourney a que mais tem se destacado por suas frequentes suspensões. O coautor e artista Reid Southen enfrentou múltiplas proibições após investigar possíveis infrações de direitos autorais nos outputs da Midjourney, revelando que a plataforma poderia infringir direitos autorais sem a intenção dos usuários.

“A Midjourney me banou três vezes, custando quase $300”, relatou Southen. “A primeira suspensão ocorreu oito horas após a publicação dos meus resultados, e posteriormente eles revisaram seus termos sem notificar os usuários, transferindo a responsabilidade por conteúdos infratores.”

Southen defende avaliações independentes, argumentando que as empresas demonstraram uma falta de disposição para autoavaliação, prejudicando os detentores de direitos autorais nesse processo.

A transparência é fundamental nessas discussões. Longpre afirmou a importância de permitir que pesquisadores independentes investiguem as capacidades e falhas dos produtos de IA, desde que demonstrem um uso responsável. Ele expressou o desejo de colaborar com as empresas para melhorar a transparência e aumentar a segurança.

Kapoor reconheceu que, embora as empresas tenham preocupações legítimas em relação ao uso indevido dos serviços, as políticas não devem ser aplicadas de forma uniforme a usuários maliciosos e a pesquisadores que realizam trabalhos críticos de segurança. Ele mencionou conversas em andamento com as empresas afetadas, afirmando: “A maioria engajou-se com nossa proposta, e algumas começaram a adaptar seus termos—particularmente a OpenAI, que modificou sua redação após nosso rascunho inicial.”

No geral, o artigo defende uma abordagem equilibrada que promove a segurança da IA e apoia a pesquisa por meio de medidas protetivas claras.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles