Uma pesquisa recente da PwC, que incluiu 1.001 executivos de negócios e tecnologia nos EUA, revela que 73% dos respondentes estão atualmente utilizando ou planejando implementar IA generativa em suas organizações. Apesar desse interesse crescente, apenas 58% começaram a avaliar os riscos relacionados à IA. A PwC enfatiza que a IA responsável deve focar em valor, segurança e confiança, integrando esses elementos nos processos de gerenciamento de risco de uma empresa.
Jenn Kosar, líder de Garantia de IA nos EUA da PwC, destacou que, embora anteriormente fosse aceitável para as empresas lançar projetos de IA sem estratégias robustas de IA responsável, esse tempo já passou. “Estamos mais avançados agora no ciclo, então o momento para desenvolver uma IA responsável é agora”, afirmou Kosar. Ela observou que os projetos de IA anteriores eram geralmente limitados a pequenas equipes, mas agora estamos witnessing uma adoção generalizada da IA generativa.
Projetos-piloto de Gen AI desempenham um papel crucial na formação de estratégias de IA responsável, pois fornecem insights sobre a eficácia da integração das equipes e da utilização dos sistemas de IA.
Preocupações Emergentes
A importância da IA responsável e da avaliação de riscos ganhou destaque após a implementação do modelo xAI Grok-2 de Elon Musk na plataforma social X (anteriormente Twitter). O feedback inicial indica que este serviço de geração de imagens carece de restrições adequadas, permitindo a criação de conteúdos controversos e enganosos, incluindo deepfakes de figuras públicas em cenários sensíveis.
Prioridades para a IA Responsável
Na pesquisa, os respondentes foram convidados a priorizar 11 capacidades identificadas pela PwC, incluindo:
- Capacitação
- Inclusão de especialistas em riscos de IA
- Treinamento periódico
- Privacidade de dados
- Governança de dados
- Cibersegurança
- Teste de modelos
- Gestão de modelos
- Gestão de riscos de terceiros
- Software especializado para gestão de riscos de IA
- Monitoramento e auditoria
Mais de 80% dos participantes relataram progresso nessas áreas, embora apenas 11% afirmassem ter implementado totalmente todas as 11 capacidades. A PwC alertou que muitas organizações podem estar exagerando seus avanços, apontando que as complexidades de gerenciar a IA responsável podem dificultar a implementação completa. Por exemplo, uma governança eficaz de dados é crucial para definir o acesso que os modelos de IA têm a dados internos, ao mesmo tempo em que institui medidas protetivas. Além disso, abordagens tradicionais de cibersegurança podem não proteger adequadamente contra ataques sofisticados, como a contaminação de modelos.
Responsabilidade na IA Responsável
Para ajudar as empresas a navegar por sua transformação em IA, a PwC recomenda priorizar uma estratégia abrangente de IA responsável. Uma recomendação chave é estabelecer uma clara responsabilidade e titularidade pelas práticas de IA responsável, idealmente sob um único executivo. Kosar enfatizou a importância de considerar a segurança da IA como uma prioridade organizacional, sugerindo a nomeação de um diretor de IA ou um líder dedicado em IA responsável para colaborar com várias partes interessadas. “Talvez a IA seja o catalisador para unificar risco tecnológico e operacional”, observou Kosar.
A PwC também sugere que as organizações considerem todo o ciclo de vida dos sistemas de IA. Isso envolve ir além de considerações teóricas para implementar ativamente políticas de segurança e confiança ao longo da organização. Preparar-se para regulamentações futuras exige um comprometimento com práticas de IA responsável, juntamente com planos para transparência com as partes interessadas. Kosar expressou surpresa com as respostas da pesquisa indicando que muitos executivos veem a IA responsável como uma vantagem comercial. “A IA responsável não se trata apenas de gerenciar riscos; ela também deve criar valor. As organizações a veem como uma vantagem competitiva fundamentada na confiança”, concluiu.