11人の研究者からなるグループが、現職および元OpenAIの従業員、Google DeepMindのメンバー、そしてAnthropicの元研究者を含むオープンレターを発表しました。このレターでは、AIの安全問題に対する内部告発者や批評家を保護するための四つの原則を採用するようAI企業に呼びかけています。
「警告する権利」というタイトルのこのレターは、AIテクノロジーに関連する深刻なリスクを強調しています。「これらのリスクは、既存の不平等を助長し、操作や誤情報を助長し、自律AIシステムの制御喪失につながり、最終的には人類の滅亡を招く可能性があります」と述べています。
レターで取り上げられた主な懸念には、不十分な監視、利益追求の動機、先進的なAI技術を開発する組織内での反対意見の抑圧が含まれています。これらの問題を解決するため、署名者は以下の四つの原則を提案しています。
1. リスクに関する批判的なコメントを制限する契約の強制や、懸念を提起した従業員に対する報復を行わないこと。
2. 従業員がリスクに関する問題を企業の取締役会、規制当局、独立した組織に報告するための、秘密かつ検証可能なプロセスを確立すること。
3. 従業員が機密情報を守りながら、リスクについて公に議論することを促進する透明性の文化を育むこと。
4. 内部報告の手段が失敗した後にリスク関連の情報を開示した従業員への報復を禁止すること。
「ニューヨーク・タイムズ」に掲載されたこのレターは、Yoshua Bengio、Geoffrey Hinton、Stuart RussellなどのAIリーダーから支持を集めています。また、元OpenAIのJacob Hilton、Daniel Kokotajlo、William Saunders、Daniel Ziegler、Google DeepMindのRamana Kumar、DeepMindのNeel Nandaなども著名な署名者です。
Kokotajloは、記事公開後、X(旧Twitter)に連投し、OpenAIからの退職についての経緯を詳しく述べ、同社の責任あるAI開発へのコミットメントに対する信頼を失ったと語りました。彼は、AI技術の進展において透明性と倫理基準の重要性を強調しました。
Kokotajloは、自身の意見を自由に批判するために保有していた持分を放棄したと明かし、OpenAIがシステムの進化において安全性の研究を優先しなかったことに失望したと述べました。また、退職時に自社への中傷を禁じる合意書を提示されたことを不倫理的と感じたと報告しています。
これらの主張は、OpenAIの内部で使用される強制的手法を示す内部文書が漏洩したことに続くものであり、OpenAIは技術業界で一般的なNDAs(機密保持契約)を強制しないと述べています。
このレターは、高まるAI安全への懸念を背景に、OpenAIが直面している困難な時期に発表されました。この時期は、2023年11月にCEOのSam Altmanが取締役会とのコミュニケーション問題により解任されるという物議を醸した出来事から始まりました。Altmanは投資家の圧力で迅速に再任されましたが、取締役会の一部メンバーは、アカウンタビリティと透明性についての懸念を表明しており、この問題はScarlett Johanssonのような公の人物からも指摘されています。
多くの課題にもかかわらず、OpenAIは最新のAIモデルのトレーニングと共に新しい安全およびセキュリティ委員会の設立を発表し、安全性への取り組みを進めています。