Quase 200 líderes em IA, pesquisadores e cientistas de dados assinaram uma carta aberta divulgada na terça-feira pela Responsible AI Community. A carta condena a recente violência de Israel contra os palestinos em Gaza e na Cisjordânia, criticando o uso de tecnologias de IA na guerra, que, segundo o documento, visam aumentar a eficiência na perda de vidas humanas e perpetuar preconceitos anti-palestinos em sistemas de IA.
A carta, inicialmente circulada por Tina Park, chefe de Pesquisa e Design Inclusivo na Partnership on AI, pede a cessação do apoio tecnológico ao governo israelense e o fim dos contratos de defesa. Destaca que a crise atual tem raízes históricas que antecedem 7 de outubro de 2023, apontando que tecnologias impulsionadas por IA contribuíram para mais de 11.000 ataques a alvos em Gaza desde o início do conflito. Entre os signatários proeminentes estão Timnit Gebru, pesquisadora de ética em IA e fundadora da DAIR; Alex Hanna, diretor de pesquisa da DAIR; Abeba Birhane, pesquisadora sênior na Mozilla; Emily Bender, professora de linguística na Universidade de Washington; e Sarah Myers West, diretora executiva do AI Now Institute.
Porém, líderes israelenses e judeus em IA se opuseram veementemente à carta, argumentando que ela reflete uma série de casos em que éticos em IA celebraram ou ignoraram os ataques do Hamas em 7 de outubro. A carta não menciona os reféns israelenses em Gaza nem condena o Hamas por suas ações.
Jules Polonetsky, CEO do Future of Privacy Forum, expressou sua preocupação, afirmando que a carta não condena as atrocidades cometidas pelo Hamas. Ele enfatizou a complexidade das considerações morais em conflitos militares e questionou a eficácia de uma narrativa unilateral para resolver a violência.
Yoav Goldberg, professor na Universidade Bar Ilan, observou que algumas tecnologias de IA provavelmente "salvaram incontáveis vidas palestinas" ao ajudar na inteligência e vigilância, ressaltando que muitos ataques potenciais podem ter sido evitados antes dos eventos de 7 de outubro devido a esses sistemas.
A engenheira de IA Shira Eisenberg destacou que tecnologias como o Domo de Ferro de Israel desempenham papéis críticos nas operações de guerra, enfatizando a importância do uso responsável de IA em meio ao conflito contínuo. Além disso, diversos líderes israelenses e judeus na comunidade de IA relataram sentir choque e decepção com os sentimentos antissemitas nas discussões nas redes sociais após 7 de outubro, sentindo-se traídos e isolados por pessoas que acreditavam compartilhar seus valores.
Eran Toch, professor associado na Universidade de Tel Aviv, expressou que a falta de empatia da comunidade de IA é especialmente dolorosa para os membros israelenses que se dedicam a resolver o conflito palestino e a defender os direitos humanos. Preocupações sobre teorias da conspiração antissemítas relacionadas ao uso da tecnologia de IA por Israel também surgiram entre esses líderes, que argumentam que tais narrativas revivem estereótipos históricos que vinculam os judeus à opressão.
Em resposta a consultas da mídia, Gebru se recusou a comentar mais, enfatizando seu foco em apoiar os palestinos. A carta gerou uma cisão dentro da comunidade de IA e do setor tecnológico mais amplo, exacerbada pelas ações de alguns líderes de IA que se retiraram de eventos importantes como a Web Summit em resposta a comentários controversos sobre as ações de Israel.
Dan Kotliar, pesquisador da Universidade de Haifa, destacou que o apoio implícito às ações do Hamas na carta levanta questões sobre a ética daqueles que promovem a IA responsável, complicando ainda mais sua credibilidade. Talia Ringer, professora assistente na Universidade de Illinois em Urbana-Champaign, expressou uma conexão pessoal profunda com os eventos desde os ataques de 7 de outubro, que afetaram sua família. Ela notou a falta de espaço para o luto na comunidade de pesquisa em IA e destacou sua luta com comentários antissemitas feitos por antigos amigos.
Enquanto Ringer encontra valor nas preocupações sobre a IA em contextos de guerra, ela criticou a redação que sugere que a história não começou em 7 de outubro como desdenhosa do impacto traumático daquele dia. No fim, a devastação pessoal de Ringer torna difícil concentrar-se em questões de IA neste momento, pois seu foco permanece na tragédia humana do conflito em curso.