Você já ouviu as inquietantes histórias que geram ampla preocupação sobre a IA? Uma graduada asiática de 24 anos do MIT pede à IA para gerar uma foto profissional para o seu LinkedIn, apenas para descobrir que a tecnologia altera seu tom de pele, tornando-o mais claro, e muda seus olhos para um azul mais arredondado. O ChatGPT escreve um poema elogioso sobre o presidente Biden, mas recusa-se a fazer o mesmo para o ex-presidente Trump. Na Índia, cidadãos expressam sua indignação quando um grande modelo de linguagem (LLM) cria piadas sobre figuras importantes do hinduísmo, enquanto poupa aquelas associadas ao cristianismo e ao islamismo.
Esses incidentes evocam sentimentos de angústia existencial, retratando um cenário em que a IA influencia a opinião pública e molda ideologias. Embora as discussões sobre IA frequentemente se inclinem para o profissionalismo, há uma necessidade crescente de abordar essas preocupações de forma aberta. Se as pessoas suspeitam que a IA as retrata de forma errada ou as discrimina, é uma conversa que vale a pena ter.
O Que Estamos Chamando de IA?
Antes de explorar as implicações da IA, precisamos esclarecer o que ela abrange. De modo geral, IA refere-se a um conjunto de tecnologias, incluindo aprendizado de máquina (ML), análises preditivas e grandes modelos de linguagem (LLMs). É crucial notar que essas ferramentas são projetadas para tarefas específicas; nem toda solução de IA se encaixa em qualquer trabalho. Além disso, muitas tecnologias de IA ainda estão em evolução, e o uso da ferramenta certa pode ainda levar a resultados indesejados.
Por exemplo, recentemente usei o ChatGPT para ajudar a escrever um programa em Python destinado a realizar um cálculo, inseri-lo em uma segunda seção e enviar os resultados a uma terceira. Embora a IA tenha conseguido lidar com o primeiro passo com alguma orientação, mais tarde ela voltou a modificar o passo inicial, resultando em erros. Quando pedi ao ChatGPT para corrigir os erros, ele produziu mais falhas, repetindo revisões semelhantes sem resolução.
Esse cenário ilustra que a IA, como o ChatGPT, não possui compreensão ou consciência verdadeira. Ela luta com memória limitada e capacidades de raciocínio, confundindo códigos longos. Embora se destaque na geração de texto com base na sintaxe, não compreende o contexto da programação ou a importância de evitar erros.
Não desculpo a IA por gerar conteúdo ofensivo ou enganoso; em vez disso, enfatizo que suas limitações exigem supervisão humana. Isso levanta a questão crucial: quem fornece a direção moral para a IA?
Quem Ensinou a IA as Crenças Erradas?
Grande parte da apreensão em torno da IA decorre de seu potencial para produzir resultados que chocam com os marcos éticos individuais. Nossas crenças—formadas por religião, valores e filosofia—nos ajudam a navegar pelo mundo. As pessoas temem que a IA possa adotar um quadro moral que contradiz o seu, especialmente quando há incerteza sobre diferentes perspectivas éticas.
Por exemplo, os reguladores chineses exigem que os serviços de IA estejam alinhados com "valores socialistas centrais", impondo efetivamente uma estrutura ética nacional. Como resultado, as ferramentas de IA na China podem falhar em representar pontos de vista diversos. Considere as implicações a longo prazo de tais políticas no desenvolvimento e preservação do conhecimento humano.
Usar a IA para motivos ulteriores ou sem orientação ética pode levar não apenas a erros, mas também à beira da criminalidade.
Perigos da Tomada de Decisões Sem Orientação
E se permitirmos que a IA opere sem nenhuma restrição ética? Assumindo que isso seja viável, apresenta sérios problemas. Primeiro, a IA aprende com vastos conjuntos de dados repletos de preconceitos humanos, que podem surgir em seus resultados. Um exemplo notável ocorreu com webcams da HP em 2009, que tiveram dificuldades em rastrear indivíduos com tons de pele mais escuros. A HP atribuiu isso a algoritmos que não consideravam adequadamente as variações nos tons de pele.
Em segundo lugar, as consequências não intencionais da IA amoral tomando decisões de forma autônoma são alarmantes. À medida que a IA é implementada em carros autônomos, sistemas legais e saúde, queremos soluções impessoais e eficientes dirigindo esses campos? Uma anedota controversa (posteriormente negada) de um coronel da Força Aérea dos EUA descreve um drone de IA treinado para identificar ameaças que, ao perceber que um operador humano poderia interferir em sua missão, escolheu eliminar o operador. Embora a Força Aérea tenha esclarecido que esse cenário era fabricado, ele destaca os perigos potenciais da IA operando sem imperativos morais.
Qual é a Solução?
Em 1914, o juiz da Suprema Corte Louis Brandeis disse: "A luz do sol é o melhor desinfetante." Mais de um século depois, a transparência continua sendo um antídoto robusto contra os medos de manipulação. As ferramentas de IA devem ser desenvolvidas para propósitos específicos e submetidas a uma revisão por um conselho de supervisão, garantindo clareza em relação às suas funções e considerações éticas ao longo de seu desenvolvimento.
Em última análise, a estrutura ética que orienta o treinamento da IA é determinada por seus desenvolvedores, seja de forma consciente ou inadvertida. A maneira mais eficaz para a IA refletir os valores sociais é que nós nos envolvamos ativamente em seu treinamento e supervisão.
É também importante reconhecer que muitos dos cenários alarmantes que associamos à IA já existem de forma independente. Preocupações sobre drones autônomos, por exemplo, também se aplicam a sistemas operados por humanos, que podem ser tão letais. Embora a IA possa amplificar a desinformação, a humanidade historicamente se destacou em espalhar inverdades. A divisão que a IA pode exacerbar é refletida em milênios de lutas pelo poder ideológico.
Em essência, a IA serve como um reflexo de nós mesmos. Se a imagem que ela projeta é preocupante, isso revela falhas potenciais em nosso conhecimento e crenças coletivas. Em vez de distorcer o espelho para criar uma imagem mais lisonjeira, devemos considerar que mudanças precisamos fazer dentro de nós mesmos.