サンフランシスコにあるOpenAIの本社前で、月曜日の夕方、数十人の抗議者が集まり、同社の人工知能(AI)開発に対する懸念を表明しました。抗議は、従業員が退社する際に行われました。
このデモは、Pause AIとNo AGIによって組織され、OpenAIのエンジニアに対し、高度なAIシステム、特にチャットボットのChatGPTに関する作業を中止するよう訴えました。彼らのメッセージは明確です。「人間の能力を超える可能性のある汎用人工知能(AGI)の追求をやめ、軍事との関わりを避けるよう求めています。」
抗議の一因は、OpenAIが自社の利用ポリシーから軍事利用を禁止する文言を削除したことでした。このポリシー変更の直後、OpenAIがペンタゴンをクライアントとして獲得したとの報道がありました。
「私たちはOpenAIがペンタゴンとの関係を終わらせ、すべての軍事クライアントを拒否することを求めます」とイベントの説明には記されていました。「便利さのために倫理的な境界が変えられるのなら、それは信頼できません。」
メディアは抗議の主催者と話し合い、彼らの目標や成功の定義を理解しようとしました。
「No AGIの使命は、AGI開発の危険性についての認識を高めることです」とNo AGIのリーダー、サム・キルヒナー氏は述べました。「人間の思考を重視する全脳エミュレーションのような取り組みに焦点を当てるべきです。」
Pause AIのリードオーガナイザー、ホリー・エルモア氏は、「AGIの開発を安全と見なされるまで、世界規模で無期限の停止を望んでいます」と述べました。彼女は、「軍事との関わりを終えることは重要な境界です」と強調しました。
この抗議は、AIの倫理的影響に関する公共の関心が高まる中で行われました。OpenAIのペンタゴンとの関与は、AIの軍事化とその潜在的な影響についての議論を引き起こしました。
抗議者たちの懸念は、AGI—機械が人間の知的タスクを前例のない速度と規模で行う能力—について集まっています。彼らの懸念は、雇用の喪失や戦争の自律性を超え、社会全体の権力ダイナミクスと意思決定の変化への不安を反映しています。
「AGIを構築することに成功すれば、AGIがすべてを管理することで、本来の意味を失う危険があります」とキルヒナー氏は警告します。「人々は仕事に意味を見出せなくなり、それは現代社会にとって重要です。」
エルモア氏は、「自己規制だけでは不十分です。外部の監視が必要です」と追加しました。「OpenAIは頻繁に公約を翻しています—Sam Altmanは6月に役員が彼を解雇できると主張しましたが、11月には彼は解雇されなかったのです。利用ポリシーや軍事契約にも同様の一貫性の欠如があります。これでは、制限のない行動を許す政策は効果的とは言えません。」
Pause AIとNo AGIは、AGI開発を停止するという共通の目標を持ちながら、アプローチは異なります。Pause AIは安全なAGI開発の可能性を考慮しているのに対し、No AGIは心理的脅威や個人の意味の喪失を理由に反対しています。
双方のグループは、この抗議が最後ではないことを示唆しており、AIリスクに懸念を持つ人々は、彼らのウェブサイトやソーシャルメディアを通じて関与できるとしています。現在、Siriコンバレーは不確かなAIの未来に向けて急速に進展しています。