Administração Biden Lança Consórcio do Instituto de Segurança em IA dos EUA
Após a nomeação de um colaborador sênior da Casa Branca como diretor do recém-criado Instituto de Segurança em IA dos EUA (USAISI) no Instituto Nacional de Padrões e Tecnologia (NIST), a Administração Biden apresentou o Consórcio do Instituto de Segurança em IA dos EUA (AISIC), considerado "o primeiro consórcio dedicado à segurança em IA".
Essa colaboração conta com mais de 200 organizações-membro, incluindo gigantes da tecnologia como Google, Microsoft e Amazon, além de empresas líderes em modelos de linguagem de grande escala (LLM), como OpenAI, Cohere e Anthropic. O consórcio também reúne laboratórios de pesquisa, equipes acadêmicas, organizações da sociedade civil, governos estaduais e locais, e entidades sem fins lucrativos.
De acordo com uma postagem no blog do NIST, o AISIC representa a maior assembleia de equipes de teste e avaliação até o momento, com o objetivo de estabelecer uma ciência de medição fundamental para a segurança em IA. Operando sob o USAISI, o consórcio apoiará iniciativas-chave delineadas na Ordem Executiva do presidente Biden, incluindo o desenvolvimento de diretrizes para testes adversariais, avaliações de capacidades, gestão de riscos, protocolos de segurança e marcação de conteúdo sintético.
Detalhes da Formação
O anúncio do consórcio ocorreu em 31 de outubro de 2023, juntamente com a Ordem Executiva de IA do presidente Biden. O site do NIST afirmou que a participação é aberta a organizações capazes de contribuir com expertise, produtos, dados ou modelos. Os participantes selecionados devem pagar uma taxa anual de US$ 1.000 e firmar um Acordo de Pesquisa e Desenvolvimento Cooperativo do Consórcio (CRADA) com o NIST.
Diretrizes para Segurança em IA
Os membros do consórcio se concentrarão em várias diretrizes principais:
1. Criar ferramentas e boas práticas para desenvolver e implantar IA de forma segura, confiável e segura.
2. Estabelecer orientações para identificar e avaliar capacidades de IA potencialmente prejudiciais.
3. Promover práticas de desenvolvimento seguro para IA generativa e abordar modelos de base de uso duplo, garantindo aprendizado de máquina que respeite a privacidade.
4. Fornecer recursos para criar e manter ambientes de teste.
5. Desenvolver práticas para eficazes testes adversariais e técnicas de aprendizado de máquina que preservem a privacidade.
6. Projetar ferramentas para autenticar conteúdo digital.
7. Definir critérios para as habilidades necessárias da força de trabalho em IA, incluindo identificação de riscos, gestão, testes e validação.
8. Explorar a inter-relação entre sociedade e tecnologia, focando em como as pessoas interagem com a IA em diversos contextos.
9. Oferecer orientações sobre a gestão de interdependências entre entidades de IA ao longo de seu ciclo de vida.
Incertezas sobre Financiamento
Apesar do anúncio, permanecem dúvidas sobre o financiamento do USAISI. Relatórios indicam que, desde o anúncio inicial da Casa Branca em novembro, poucos detalhes foram compartilhados sobre a estrutura operacional ou fontes de financiamento, especialmente considerando o orçamento anual do NIST de mais de US$ 1,6 bilhão e suas limitações de recursos.
Em janeiro, um grupo bipartidário de senadores solicitou US$ 10 milhões ao Comitê de Apropriações do Senado para ajudar a estabelecer o USAISI, mas a situação desse pedido de financiamento permanece incerta. Além disso, legisladores no Comitê de Ciência da Câmara expressaram preocupações sobre a transparência do NIST e a falta de um processo competitivo para concessão de fundos de pesquisa relacionados ao novo instituto.
Comentando sobre os desafios de financiamento, Rumman Chowdhury, uma figura proeminente em ética de IA anteriormente na Accenture e Twitter, destacou que o USAISI opera sob um mandato não financiado por ordem executiva. Ela expressou compreensão sobre as complexidades políticas que dificultam a ação legislativa, enquanto ressaltava a significativa falta de recursos para a iniciativa.