Uma pesquisa recente revela que quase 90% das empresas estão adotando ativamente estratégias de IA responsável, seja por meio de implementação, avaliação ou desenvolvimento. Essa abordagem proativa surge em um momento crucial, enquanto governos em todo o mundo enfrentam as complexidades da regulação da IA. Atualmente, 37% das organizações estão implementando estratégias de IA responsável, enquanto 34,8% estão formulando seus planos. Notavelmente, 15,4% já estabeleceram uma estratégia “bem definida” integrada em todos os esforços de desenvolvimento de IA.
Globalmente, os governos estão elaborando regulações para abordar os potenciais danos da IA, com a Lei de IA da União Europeia liderando como a legislação mais abrangente e avançada, prevista para ser sancionada até o início ou meio de 2024. Nos Estados Unidos, o Presidente Biden iniciou uma ordem executiva que facilita a supervisão pública dos modelos de IA de grandes empresas de tecnologia, enquanto o Primeiro-Ministro do Reino Unido, Rishi Sunak, recentemente concluiu a cúpula global inaugural sobre Segurança em IA no histórico Bletchley Park.
Apesar das regulamentações iminentes, o setor privado está tomando a iniciativa. A rápida resposta das empresas é notável; há apenas um ano, a IA generativa ganhou grande atenção com o lançamento do ChatGPT da OpenAI, apesar da longa presença da tecnologia.
As impressionantes capacidades dos grandes modelos de linguagem e dos chatbots associados intensificaram a conscientização sobre os riscos que eles apresentam—como alucinações, preconceitos, questões de direitos autorais, invasões de privacidade e ameaças cibernéticas—destacando a necessidade urgente de práticas de IA responsável.
A Urgência da IA Ética
As vantagens de adotar práticas de IA ética são claras: desde aumentar a confiança do cliente até minimizar vulnerabilidades regulatórias e legais, as empresas reconhecem as implicações sociais da IA e estão fazendo esforços para garantir que seus sistemas sejam transparentes, justos e responsáveis.
Ao analisar suas práticas, 72% dos entrevistados indicaram que têm um programa em vigor ou estão planejando um. Notavelmente, apenas um quarto dos participantes relatou que suas organizações carecem de sistemas de gestão e governança de dados para IA, enquanto um número significativo ainda não tinha certeza sobre a situação de sua empresa.
Considerando suas abordagens, 45,8% descreveram as suas como “ponderadas e cuidadosas”, afirmando que estão progredindo no ritmo certo. Em contraste, 26% admitiram estar se movendo mais rapidamente do que conseguem garantir uma implementação responsável. Alarmantemente, 19% das empresas não possuem programas para IA responsável.
A pesquisa incluiu 227 participantes, predominantemente da América do Norte (43,2%), com representantes da Europa Ocidental (25,1%) e da África (9%). Um pouco mais da metade estava empregada em organizações com menos de 100 funcionários, enquanto 12,8% eram de empresas com mais de 10.000 empregados. Uma parte significativa dos entrevistados trabalhava em gestão corporativa ou em papéis de P&D e estratégia técnica.
Superando Desafios
Embora o entusiasmo pela IA responsável seja evidente, muitos desafios persistem, especialmente a ausência de definições e benchmarks padronizados. O cenário de IA em rápida evolução exige atualizações regulares nas políticas e regulamentações corporativas para se manter eficazes.
Monitorar práticas de IA ética é crucial, mas os resultados indicam que há espaço para melhorias. Enquanto 60% dos entrevistados afirmaram medir a correção de sua implementação de IA responsável, esse número é notavelmente inferior aos quase 90% que aplicam estruturas éticas de IA. Apenas 18,1% têm essas medidas firmemente estabelecidas, com 41,9% ainda em progresso rumo a esse objetivo.
O processo de medir a IA ética é estruturado para 33,9% dos entrevistados, com etapas claras, diretrizes e monitoramento contínuo. Enquanto isso, 21,1% ainda estão desenvolvendo seus processos formais. Alarmantemente, quase um quinto das empresas não possui uma estratégia de medição ou não está ciente da abordagem de sua empresa.
Quando questionados sobre o momento de incorporar considerações éticas em IA, 40% afirmaram que o fazem antes do design ou implementação da tecnologia, enquanto 41,4% integram considerações éticas durante a fase de design. Apenas 10,6% levam em conta essas questões pós-implementação.
Entre as aplicações críticas identificadas para a IA responsável, a análise preditiva recebeu 30,4% dos votos, seguida pela experiência do cliente com 27,3%, e chatbots e assistentes virtuais com 20,3%. As áreas menos priorizadas, de acordo com as respostas, foram o reconhecimento de voz/fala, análise de texto e análises visuais.
Uma Nova Era de Desenvolvimento em IA
A pesquisa destaca um momento decisivo no cenário da IA. À medida que as empresas alinham suas práticas com estratégias de IA responsável e os governos avançam nas medidas regulatórias, é provável que estejamos entrando em uma era onde considerações éticas são parte integrante da inovação em IA—marcando uma mudança significativa no desenvolvimento e na aplicação da inteligência artificial.