IA Generativa e o Debate sobre Discurso: Perspectivas Legais e Riscos
A IA generativa está se tornando cada vez mais sofisticada, produzindo conteúdos expressivos, informativos e muitas vezes persuasivos. Especialistas legais nos EUA sugerem controversamente que as produções de grandes modelos de linguagem (LLMs) podem estar protegidas pela Primeira Emenda. Essa proteção poderia se estender mesmo a conteúdos potencialmente prejudiciais, colocando essas saídas além da supervisão governamental.
A Necessidade de Regulação
Peter Salib, professor assistente de direito no Centro de Direito da Universidade de Houston, argumenta que uma regulação eficaz é essencial para evitar resultados catastróficos provenientes de conteúdos gerados por IA. Seu ponto de vista será destacado na próxima edição da Washington University School of Law Review. "A liberdade de expressão é uma categoria constitucional sagrada", explica Salib, ressaltando os riscos de considerar as produções de modelos avançados como o GPT-5 como protegidas. Esse cenário poderia dificultar severamente a nossa capacidade de regular essas tecnologias.
Argumentos a Favor da IA como Discurso Protegido
Há um ano, o jornalista legal Benjamin Wittes afirmou que podemos ter concedido "direitos da Primeira Emenda" a máquinas como o ChatGPT. Ele sustentou que esses sistemas de IA são "indiscutivelmente expressivos" e geram conteúdos semelhantes ao discurso ao criar textos, imagens e diálogos. Wittes observou que, embora o conteúdo gerado por IA possa ser derivado, a Primeira Emenda protege a expressão, não a originalidade. Salib destaca que muitos estudiosos estão começando a reconhecer que as produções da IA se assemelham tanto a discursos que justificam a proteção.
Alguns argumentam que essas produções são o discurso protegido dos programadores humanos envolvidos, enquanto outros afirmam que pertencem aos proprietários corporativos dos sistemas de IA, como o ChatGPT. Contudo, Salib alega: "As saídas da IA não representam comunicações de qualquer falante com direitos da Primeira Emenda; não são expressões humanas."
Riscos Emergentes dos Outputs de IA
Os avanços em IA são rápidos, levando ao desenvolvimento de sistemas significativamente mais capazes, utilizados de maneiras autônomas e imprevisíveis. Salib, que assessora o Center for AI Safety, alerta que a IA generativa poderia resultar em riscos severos, incluindo a síntese de armas químicas letais e ataques a infraestruturas críticas. "Há evidências empíricas robustas de que os sistemas geradores de IA do futuro próximo representarão riscos significativos para a vida humana", afirma, prevendo cenários como bioterrorismo e assassinatos políticos automatizados.
IA: Discurso, mas Não Discurso Humano
Líderes globais estão começando a promulgar regulamentos para garantir operações éticas e seguras da IA. Essas leis poderiam exigir que os sistemas de IA se abstivessem de gerar conteúdos prejudiciais, o que poderia ser interpretado como censura do discurso. Salib destaca que, se os outputs de IA forem considerados discurso protegido, qualquer regulação enfrentaria um rigoroso escrutínio constitucional, permitindo regulação apenas em casos de ameaça iminente.
Ele enfatiza a distinção entre os outputs de IA e o discurso humano. Enquanto softwares tradicionais geralmente refletem a intenção humana, a IA generativa visa produzir qualquer conteúdo, sem uma intenção comunicativa específica.
Direitos de Discurso Corporativo e Regulação
As corporações, embora não humanas, possuem direitos de discurso derivados. Salib argumenta que os direitos corporativos dependem dos direitos dos criadores humanos. Se os outputs de LLM não forem classificados como discurso protegido, seria ilógico que obtivessem proteção ao serem disseminados por corporações. Para mitigar riscos de forma eficaz, Salib defende a regulação dos outputs de IA em vez de restringir os processos gerativos dos sistemas. Atualmente, os LLMs não podem ser totalmente controlados ou programados para evitar saídas prejudiciais, devido à sua complexidade e imprevisibilidade.
Regulações bem-sucedidas devem focar na natureza dos outputs de IA—determinando se o conteúdo de um modelo é seguro o suficiente para ser liberado. Essa abordagem incentivaria as empresas de IA a priorizar segurança no desenvolvimento. "As leis devem ser elaboradas para evitar que as pessoas sejam enganadas ou prejudicadas", enfatiza Salib, indicando a necessidade crítica de uma ação legislativa cuidadosa diante das capacidades em evolução da IA.