ほぼ200人のAIのリーダー、研究者、データサイエンティストが、責任あるAIコミュニティによって発表された公開書簡に署名しました。この書簡は、ガザと西岸地区におけるイスラエルの最近の暴力行為を非難し、戦争におけるAI技術の使用を批判しています。これらの技術は人命の喪失を効率的に増加させ、AIシステムにおける反パレスチナ的偏見を永続化させることを目的としています。
書簡は、AIに関するパートナーシップの包括的研究・デザイン部門長であるティナ・パークによって広められ、イスラエル政府への技術支援の中止と、防衛契約の終了を求めています。現在の危機は2023年10月7日以前から続く歴史的な背景に根ざしており、紛争の開始以来、ガザの目標に対して1万1千回以上の攻撃がAI駆動型技術によって助けられたことが指摘されています。
著名な署名者には、AI倫理研究者でDAIR創設者のティムニット・ゲブル、DAIRの研究ディレクターであるアレックス・ハンナ、Mozillaの上級研究員アベバ・ビルハネ、ワシントン大学の言語学教授エミリー・ベンダー、AI Now Instituteのマネージングディレクターであるサラ・マイヤーズ・ウエストなどが含まれます。
一方で、イスラエルおよびユダヤ系のAIリーダーたちはこの書簡に反対の声を上げ、著名なAI倫理学者たちが10月7日のハマスの攻撃を称賛したり無視したりする事例を反映していると主張しています。書簡はガザにいるイスラエル人の人質について言及せず、ハマスの行動を非難していません。
プライバシーの未来フォーラムのCEO、ジュール・ポロネツキーは、この書簡がハマスによる残虐行為を非難していないことに懸念を示し、軍事衝突における道徳的考慮の複雑さを強調しました。彼は、一方的な物語が暴力解決において効果的かどうか疑問を呈しました。
バル・イラン大学の教授ヨアブ・ゴールドバーグは、AI技術が情報および監視において「無数のパレスチナ人の命を救った可能性がある」と述べ、10月7日の攻撃前に潜在的な攻撃がこれらのシステムによって回避された可能性があることを指摘しました。
AIエンジニアのシラ・アイズンバーグは、イスラエルのアイアン・ドームなどのAI技術が戦時作戦において重要な役割を果たしていることを強調し、争いが続く中での責任あるAIの使用の重要性を訴えました。
さらに、AIコミュニティ内のイスラエルおよびユダヤ人リーダーたちは、10月7日以降のソーシャルメディアでの反ユダヤ主義的な発言にショックと失望を抱いています。彼らは、自分たちが価値観を共有していると思っていた人々から裏切られ、孤立を感じています。
テルアビブ大学の准教授エラン・トクは、広範なAIコミュニティからの共感の欠如が、パレスチナ問題の解決に尽力しているイスラエルのメンバーにとって特に痛みを伴うものであると述べました。
イスラエルのAI技術に関連する反ユダヤ主義の陰謀論に対する懸念も、これらのリーダーたちの間で高まっています。彼らは、このような物語がユダヤ人と抑圧を結びつける歴史的なトロープを再生すると主張しています。
メディアの問い合わせに対し、ゲブルはパレスチナ人の支援に焦点を当てているため、これ以上のコメントを控えると述べました。書簡はAIコミュニティや広範なテックセクター内での分裂を引き起こし、イスラエルの行動に関する物議を醸すコメントを受けて、一部のAIリーダーがWebサミットなどの著名なイベントから撤退する行動を取ったことが影響を与えています。
ハイファ大学の研究者ダン・コトリアルは、書簡におけるハマスの行動への暗黙の支持が、責任あるAIを推進する者の倫理について疑問を生じさせ、彼らの信頼性をさらに複雑にしていると指摘しました。
イリノイ大学アーバナ・シャンペーン校の助教授タリア・リンガーは、10月7日の攻撃が彼女の家族に影響を与えたことから、事態に深い個人的な関わりを持っていると述べました。彼女は、AI研究コミュニティにおいて悲しみを表現する場が欠けていると指摘し、元友人たちによる反ユダヤ主義的な発言に苦しんでいることを明かしました。
リンガーは、戦争におけるAIの懸念には価値があると認識しつつも、「歴史は10月7日以前から始まっていた」とする表現が、その日の心理的影響を軽視していると批判しました。最終的には、彼女の個人的な悲しみが、現在進行中の紛争による人間の犠牲に焦点を当てており、AIの問題に集中することを難しくしています。