Navegando em Auditorias de IA: Abordando Viés, Desempenho e Ética
A auditoria de modelos de IA quanto a viés, desempenho e conformidade ética é um desafio premente para muitas organizações. Durante o recente VB AI Impact Tour em Nova Iorque, promovido pela UiPath, líderes do setor discutiram metodologias eficazes, melhores práticas e estudos de caso do mundo real. Entre os palestrantes estavam Michael Raj, VP de Habilitação de AI e Rede de Dados da Verizon Communications; Rebecca Qian, cofundadora e CTO da Patronus AI; e Matt Turck, diretor executivo da FirstMark. Para finalizar o evento, o CEO da VB, Matt Marshall, dialogou com Justin Greenberger, SVP de Sucesso do Cliente na UiPath, focando no que torna uma auditoria de IA bem-sucedida e como iniciar o processo.
Greenberger ressaltou a necessidade de uma abordagem proativa para a avaliação de riscos: “O cenário de riscos costumava ser avaliado anualmente. Agora, deve ser reanalisado quase mensalmente. Você entende seus riscos e os controles existentes para mitigá-los? O Instituto de Auditores Internos (IIA) atualizou seu framework de IA, mas ele abrange principalmente aspectos fundamentais. Questões importantes incluem: Quais são seus KPIs de monitoramento? Há transparência em suas fontes de dados? Existem protocolos de responsabilidade? O ciclo de avaliação deve ser mais frequente.”
Ele citou o Regulamento Geral sobre a Proteção de Dados (GDPR) como exemplo de superregulamentação que, ao final, estabeleceu uma base sólida para a segurança de dados nas empresas. Curiosamente, o crescimento da IA generativa está levando mercados globais a se adaptarem em ritmos similares, criando um ambiente competitivo equitativo enquanto as organizações avaliam sua tolerância ao risco em relação a essa tecnologia.
Superando Desafios em Pilotos e Envolvendo Empregados
Apesar de a adoção da IA em toda a empresa ainda estar em desenvolvimento, muitas companhias estão realizando projetos piloto iniciais para explorar suas capacidades. Alguns desafios persistentes incluem a identificação de especialistas com o conhecimento contextual e as habilidades críticas necessárias para definir casos de uso efetivamente. Além disso, é crucial garantir a compreensão e o engajamento dos empregados. Greenberger observou que a compreensão clara sobre o que os colaboradores devem aprender sobre as tecnologias de IA, especialmente no que diz respeito ao uso ético e aos riscos de deep fakes, ainda está em evolução.
As organizações estão, predominantemente, incorporando a IA generativa em fluxos de trabalho existentes, em vez de realizar uma reformulação completa dos processos. Consequentemente, as auditorias precisam evoluir para monitorar como os dados privados são utilizados em várias aplicações, incluindo casos médicos sensíveis.
Evolução de Papéis na Era da IA
Com os avanços na tecnologia de IA, o papel dos humanos no processo de auditoria continua a ser crítico. Greenberger explicou que, enquanto os usuários iniciam consultas, os sistemas de IA processam informações e fornecem os dados necessários para a tomada de decisões. Por exemplo, um empregado de uma empresa de logística pode usar orçamentos gerados por IA em interações com clientes. No entanto, os papéis humanos tradicionais podem enfrentar desafios de automação.
“Atualmente, os humanos mantêm as responsabilidades de tomada de decisões,” afirmou Greenberger. “Com o tempo, à medida que nos tornarmos mais confortáveis com controles de auditoria e verificações esporádicas, isso provavelmente mudará. Em última análise, os humanos podem precisar se concentrar em aspectos criativos e emocionais de seus papéis, já que a autoridade para tomada de decisões pode se deslocar deles. Essa evolução é inevitável à medida que a tecnologia avança.”
Em resumo, as organizações devem priorizar a avaliação contínua dos sistemas de IA para mitigar riscos e garantir práticas éticas enquanto navegam em um cenário tecnológico em constante mudança.