A administração Biden iniciou um esforço para monitorar modelos de peso aberto, buscando informações cruciais para futuras regulamentações. No entanto, medidas regulatórias específicas para esses modelos ainda não foram delineadas.
Em um relatório recente, a Administração Nacional de Telecomunicações e Informação (NTIA) destacou a necessidade de avaliar os riscos apresentados por modelos de IA públicos, que podem potencialmente desestabilizar sistemas existentes. Essa avaliação é vital para evitar possíveis desastres.
Embora reconheça a importância do monitoramento, a NTIA admitiu que os Estados Unidos atualmente não têm capacidade para abordar efetivamente muitos riscos associados a modelos fundamentais. Para preencher essa lacuna, a NTIA propôs concentrar-se em três áreas-chave: coletar evidências sobre as capacidades dos modelos para monitoramento de riscos, avaliar e comparar indicadores de risco, e desenvolver políticas direcionadas para mitigar esses riscos.
A NTIA define modelos de peso aberto como modelos fundamentais com pesos ou parâmetros disponibilizados publicamente, que os usuários podem baixar. Esses se diferenciam dos modelos de código aberto, que operam sob uma licença aberta que permite a replicação, ao contrário de algumas alegações de desenvolvedores de modelos de IA.
“A consideração do risco marginal ajuda a evitar restrições desnecessariamente rígidas em modelos fundamentais de uso duplo com pesos amplamente disponíveis, especialmente ao ponderar benefícios e riscos em relação a sistemas similares”, afirmou a NTIA.
Além disso, a agência reconheceu que tanto modelos abertos quanto fechados apresentam riscos que requerem gerenciamento. No entanto, os modelos abertos podem oferecer oportunidades e desafios únicos na redução de riscos.
A ênfase da administração Biden em modelos abertos sugere uma abordagem regulatória semelhante à do Ato de IA da União Europeia, adotado pelo parlamento da UE em março. A legislação da UE regula a IA com base nos riscos associados aos casos de uso, em vez dos próprios modelos. Por exemplo, penalidades significativas foram estabelecidas para empresas que utilizam IA para reconhecimento facial. Dada a abordagem da UE, é provável que os EUA estejam considerando medidas semelhantes para abordar os perigos potenciais de modelos de IA públicos.
Kevin Bankston, conselheiro sênior em governança de IA do Centro para a Democracia e Tecnologia, elogiou a NTIA por sua abordagem cautelosa em regular modelos de IA. Em um e-mail, ele afirmou: “A NTIA concluiu com razão que há evidências insuficientes de novos riscos provenientes de modelos fundamentais abertos para justificar novas restrições em sua distribuição.”
Por enquanto, os desenvolvedores de modelos de IA não precisam se preocupar excessivamente, pois a NTIA ainda está engajada em uma missão abrangente de coleta de informações.
Assaf Melochna, cofundador da empresa de IA Aquant, observou em um e-mail que as observações atuais da NTIA não alteram significativamente o cenário para os desenvolvedores de modelos. “Os desenvolvedores podem continuar a divulgar os pesos de seus modelos a seu critério, embora enfrentem um aumento da supervisão”, explicou Melochna. “O setor evolui rapidamente, exigindo que as agências federais permaneçam adaptáveis com base em novas descobertas.”