Como Garantir que os Humanos Mantenham o Controle da IA

“Nós, o povo”, devemos assumir o controle da IA, não as corporações tecnológicas ou as elites políticas. Os recentes erros do sistema Gemini da Google evidenciam essa urgência. O Gemini não consegue classificar figuras históricas de maneira precisa, afirmando que Hitler não é pior do que os tweets de Elon Musk. Além disso, evita elaborar documentos de políticas que defendam o uso de combustíveis fósseis. Por último, gera imagens que retratam de maneira incorreta os pais fundadores da América em raças e gêneros diferentes dos que realmente possuíam.

Esses exemplos podem parecer absurdos, mas apontam para uma distopia iminente, onde burocratas não responsabilizados em empresas privadas de IA ditam quais ideias e valores podem ser expressos. Isso deve ser inaceitável para todos, independentemente da ideologia.

Buscar intervenção governamental para regular a fala da IA apresenta seus próprios riscos. Embora a regulação seja essencial para a segurança e a equidade da IA, uma sociedade livre deve resistir à ideia de permitir que governos determinem quais ideias podem ser expressas ou suprimidas.

Está claro que nem as corporações nem as entidades governamentais deveriam dictar essas decisões. No entanto, à medida que os usuários recorrem a ferramentas de IA para obter informações e gerar conteúdo, terão expectativas diversas sobre os valores que essas ferramentas devem refletir.

Uma solução viável existe: empoderar os usuários para governar a IA.

Estratégias para o Empoderamento dos Usuários na IA

Nos últimos cinco anos, colaborei com a indústria tecnológica como cientista político acadêmico para explorar maneiras de empoderar os usuários na governança de plataformas online. Aqui está o que aprendi sobre como colocar os usuários no controle da IA de forma eficaz.

1. Guardrails Definidos pelo Usuário: Devemos criar um mercado para modelos de IA diversos e refinados. Diferentes partes interessadas — jornalistas, grupos religiosos, organizações e indivíduos — devem poder personalizar e selecionar versões de modelos de código aberto que ressoem com seus valores. Isso aliviaria a pressão sobre as empresas para atuarem como “árbitros da verdade”.

2. Guardrails Centralizados: Embora a abordagem de mercado reduza algumas pressões, guardrails fundamentais ainda devem existir. Certos conteúdos — especialmente material ilegal ou instâncias ambíguas de sátira, insultos ou imagens politicamente sensíveis — requerem padrões unificados em todos os modelos. Os usuários devem ter voz na criação desses guardrails centrais mínimos.

Algumas empresas de tecnologia já estão experimentando a democratização. Por exemplo, a Meta iniciou um fórum comunitário em 2022 para coletar opiniões públicas sobre sua ferramenta de IA LlaMA, enquanto a OpenAI buscou "contribuições democráticas para a IA" e a Anthropic lançou uma constituição de IA co-criada por usuários.

3. Poder Democrático Real: Para criar uma estrutura democrática robusta, os usuários devem propor, debater e votar sobre questões significativas, com suas decisões vinculativas para a plataforma. Embora as propostas devam ser limitadas para evitar violações legais, elas ainda precisam empoderar os usuários sobre os guardrails centrais.

Embora nenhuma plataforma tenha implementado ainda um mecanismo de votação desse tipo, experimentos em web3 oferecem insights valiosos. Aqui estão quatro lições fundamentais que plataformas de IA podem adotar:

- Apostas de Votação Tangíveis: Vincular o poder de votação a tokens digitais com utilidade na plataforma, como compra de tempo de computação de IA.

- Votação Delegada: Os usuários devem delegar seus votos a especialistas verificados que expliquem suas decisões publicamente.

- Recompensas por Participação: Incentivar a participação ativa na governança recompensando os usuários com tokens adicionais por engajamento significativo.

- Constituição Clara: Estabelecer uma estrutura constitucional que defina o escopo das propostas, a distribuição do poder de voto e o compromisso da empresa em renunciar ao controle sobre os guardrails centrais.

Construindo Confiança nos Sistemas de IA

As plataformas de IA podem testar esse modelo democrático em pequena escala, expandindo gradualmente seu impacto. Para que isso funcione, as empresas de IA devem se comprometer a renunciar ao controle sobre os guardrails centrais. Somente assim a sociedade poderá confiar que as informações e respostas fornecidas por essas ferramentas não são manipuladas por agentes não responsabilizados que não se alinham com os valores dos usuários que atendem.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles