火曜日に公開されたオープンレターは、OpenAI、GoogleのDeepMind、Anthropicに所属する現役および元社員12人以上によって発表され、効果的な監視フレームワークなしでの人工知能(AI)技術の急速な発展に伴う「深刻なリスク」を強調しています。研究者たちは、規制のないAIが既存の不平等を悪化させ、情報を操作し、偽情報を広め、場合によっては自律型AIシステムの制御を失う可能性があると警告しています。このような事態は人類に深刻な影響を及ぼしかねません。
署名者たちは、科学コミュニティ、立法者、一般市民が協力することでこれらのリスクは「適切に軽減」できると主張しています。しかしながら、「AI企業は効果的な監視を避ける強い財政的インセンティブを持っており、強力な技術の責任ある開発を導くことができるとは信頼できない」と懸念を表明しています。
2022年11月にChatGPTが発表されて以来、生成AIは急速に技術の風景を変革しており、Google Cloud、Amazon AWS、Oracle、Microsoft Azureなどの主要なクラウドプロバイダーが2032年までに1兆ドル市場になると予測されています。最近のマッキンゼーの調査によると、2024年3月時点で調査対象の組織の約75%がAIを業務に統合しています。また、Microsoftの年間ワークインデックス調査では、オフィスワーカーの3分の2がすでにAIツールを活用していることがわかりました。
しかし、元OpenAI社員のダニエル・ココタジロがワシントンポストとの対話で指摘したように、一部の企業は「迅速に行動し、壊す」という考え方を取っており、これは強力で未理解な技術には不適切です。OpenAIやStable DiffusionなどのAIスタートアップは、米国の著作権法に関する課題に直面し、様々な公共で利用できるチャットボットがヘイトスピーチや陰謀論、偽情報を生成するように操作される事例が見受けられます。
懸念を抱くAI社員たちは、これらの企業が製品の能力や制限、潜在的なリスクおよび安全対策の効果に関する「重要な未公開情報」を保持していると主張しています。この情報の一部しか、政府機関に「弱い開示義務」を通じて提供されておらず、一般市民はほとんど知らされていません。
「政府がこれらの企業を適切に監視していないため、現役および元社員は公衆に対する責任を追及する数少ない方法の一つを代表しています」とグループは述べています。彼らは、テクノロジー業界の機密保持契約への依存や、既存の内部告発者保護の不十分な実施を批判しています。このレターでは、AI企業に対し、非中傷契約を廃止し、従業員の懸念に対処するための匿名報告プロセスを確立し、もし社内の対応が不十分な場合には公的な内部告発者が報復を受けないようにすることを求めています。