Relatório Revela Falhas Comuns em Ferramentas de Governança de IA: Muitas Incluem Soluções Ineficazes para IA

Um relatório recente do World Privacy Forum revelou insights cruciais sobre ferramentas de governança de IA utilizadas por governos e organizações multilaterais. A análise de 18 dessas ferramentas encontrou que mais de um terço (38%) continha "soluções falhas". Essas ferramentas, projetadas para avaliar sistemas de IA em relação à equidade e explicabilidade, frequentemente careciam de mecanismos essenciais de garantia de qualidade ou empregavam métodos de medição inadequados fora de seus contextos originais.

Muitas dessas ferramentas foram desenvolvidas por grandes empresas de tecnologia, como Microsoft, IBM e Google—entidades que também criam os sistemas de IA que avaliam. Por exemplo, o relatório destaca a ferramenta AI Fairness 360 da IBM, que foi endossada pelo Escritório de Responsabilidade do Governo dos EUA por incorporar princípios éticos em IA. No entanto, a pesquisa fundamental por trás do algoritmo "Disparate Impact Remover" enfrentou críticas contundentes no meio acadêmico.

Pam Dixon, fundadora e diretora executiva do World Privacy Forum, afirmou: "A maioria das ferramentas de governança de IA atualmente em uso opera sem padrões adequados." Ela observou que um problema significativo é a ausência de requisitos de garantia de qualidade estabelecidos. Ferramentas destinadas a um contexto específico podem ser mal aplicadas, resultando em usos "não autorizados" que podem levar a consequências imprevistas.

O relatório define ferramentas de governança de IA como mecanismos para avaliar e medir aspectos de sistemas de IA, incluindo inclusividade, equidade, explicabilidade, privacidade e segurança. Embora essas ferramentas possam oferecer segurança a reguladores e ao público, elas podem inadvertidamente promover uma falsa sensação de segurança, gerar problemas inesperados e minar o potencial das tecnologias de IA.

Com a recente aprovação do Ato de IA da EU e a Ordem Executiva de IA do Presidente Biden, há uma oportunidade oportuna para aprimorar o cenário de governança de IA, conforme notado por Kate Kaye, diretora adjunta do World Privacy Forum. "Embora tenhamos identificado algumas falhas, há um potencial significativo para melhorias no ecossistema de governança de IA," observou. "Essas ferramentas representam como os governos estão implementando políticas de IA e desempenharão papéis cruciais na aplicação de futuras leis e regulamentos."

Kaye também compartilhou um exemplo de como boas intenções podem levar a resultados ruins: a regra dos quatro quintos ou 80% na lei de emprego dos EUA está sendo aplicada de forma inadequada nas ferramentas de governança de IA em todo o mundo. Essa regra avalia se os processos de seleção resultam em impactos adversos sobre grupos específicos, mas foi abstraída para contextos não relacionados ao emprego, levando a aplicações inadequadas.

Em meio à pressão para estabelecer regulamentações de IA, Kaye alertou contra a incorporação de metodologias falhas nas políticas. Ela enfatizou o risco de perpetuar problemas existentes por meio de implementações apressadas.

Olhando para 2024, tanto Dixon quanto Kaye estão otimistas em relação aos avanços nas ferramentas de governança de IA. Dixon destacou que a Organização para Cooperação e Desenvolvimento Econômico (OCDE) está ansiosa para colaborar na melhoria dessas ferramentas, sinalizando uma direção positiva. O Instituto Nacional de Padrões e Tecnologia (NIST) também expressou interesse em desenvolver padrões rigorosos baseados em evidências. Com esforços focados, elas acreditam que melhorias significativas no cenário de governança de IA podem ser alcançadas em até seis meses.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles