Pesquisadores e acadêmicos do MIT publicaram um importante documento de política que defende a ampliação do arcabouço regulatório do governo dos EUA para a inteligência artificial (IA). Intitulado "Criando um Setor de IA Seguro e Próspero," o documento de 10 páginas ressalta a necessidade de expandir as estruturas legais existentes para incluir tecnologias de IA. Isso abrange propostas para integrar a IA nas regulamentações de saúde, especialmente no que diz respeito a diagnósticos assistidos por IA. Além disso, os autores defendem que a IA esteja sujeita à mesma supervisão que atualmente regula operações governamentais, como práticas policiais, determinações de fiança e processos de contratação.
Os pesquisadores enfatizam que quaisquer leis que regulem atividades humanas também devem se aplicar a sistemas de IA. Eles afirmam: “Se a atividade humana sem o uso de IA é regulamentada, então o uso de IA também deve ser regulamentado.” Esse princípio garantiria que o desenvolvimento, implantação e utilização de sistemas de IA sigam os mesmos padrões estabelecidos para ações humanas nas áreas pertinentes.
O documento aponta para aplicações de IA de maior risco — que já estão sendo analisadas sob as leis atuais — como pontos críticos de foco. Por exemplo, a regulamentação de veículos autônomos, que deve atender aos mesmos padrões que os veículos operados por humanos, ilustra como os frameworks existentes podem ser aplicados efetivamente.
Os autores também argumentam que os desenvolvedores de sistemas de IA de uso geral, como o ChatGPT, devem ser obrigados a definir claramente o propósito pretendido de suas tecnologias antes do lançamento. Essa responsabilidade permitiria que os reguladores estabelecessem diretrizes específicas para usos pretendidos, garantindo que os desenvolvedores alinhem seus sistemas a esses parâmetros definidos.
Um aspecto importante do documento é a clarificação de questões relacionadas aos direitos de propriedade intelectual no contexto da IA. Os autores sugerem que mecanismos devem ser desenvolvidos para ajudar os criadores a se protegerem contra possíveis infrações, defendendo a rotulagem obrigatória de conteúdo gerado por IA como uma solução potencial.
O documento destaca as ambiguidades atuais sobre como os frameworks regulatórios e legais existentes se aplicam quando a IA está envolvida. Ele afirma: “Não está claro se e como os atuais frameworks regulatórios e legais se aplicam quando a IA está envolvida, e se eles estão preparados para o desafio.” Essa falta de clareza cria um ambiente desafiador para provedores, usuários e o público em geral, que podem estar inseguros em relação aos riscos associados às tecnologias de IA. Os autores ressaltam a importância de maior clareza e supervisão para incentivar o desenvolvimento e uso responsável da IA, maximizando seus benefícios para todos os americanos.
De acordo com Dan Huttenlocher, reitor do MIT Schwarzman College of Computing, "Como país, já regulamos muitas coisas relativamente de alto risco e fornecemos governança nessas áreas. Não estamos dizendo que isso é suficiente, mas vamos começar com áreas onde a atividade humana já é regulada e que a sociedade considera de alto risco. Abordar a regulamentação da IA dessa forma é o caminho prático a seguir."
Este documento de política está alinhado a vários outros que exploram diferentes aspectos da IA, incluindo a gestão de grandes modelos de linguagem, estratégias de IA voltadas para o trabalhador e a rotulagem de conteúdo gerado por IA, sinalizando um compromisso mais amplo em estabelecer um cenário de IA bem regulamentado.