OpenAIは、ChatGPTを開発したAIラボであり、最近「備えのフレームワーク」を発表しました。このフレームワークは、ますます強力になるAIシステムに関連するリスクを監視し、軽減するための包括的なプロセスとツールのセットです。この発表は、CEOSam Altmanの解任及び再任に関する最近の混乱を受けたものです。この事件は、OpenAIのガバナンスと責任についての懸念を引き起こしています。特に、同ラボが世界で最も先進的なAI技術を開発しているという背景があるためです。
備えのフレームワークの主な要素
OpenAIのブログによれば、備えのフレームワークは、これらの懸念に対処し、倫理的なAI開発に対する同ラボのコミットメントを強調することを目的としています。このフレームワークは、先進的なモデルに伴う壊滅的なリスクを追跡、評価、予測し、保護するための手法を示しています。具体的には、サイバー攻撃、大規模な操作、または自律兵器のために悪用される可能性があるリスクです。
データ駆動型AI安全性
フレームワークの基本的な要素は、AIモデルに対するリスク“スコアカード”の実施です。このスコアカードでは、能力、脆弱性、影響など、潜在的な harmの指標を評価します。スコアカードは定期的に更新され、リスクの閾値に達した場合にはレビューや介入が行われます。
ダイナミックなフレームワーク
OpenAIは、このフレームワークをダイナミックで進化するものと位置づけており、新しいデータ、ステークホルダーからのフィードバック、研究に基づいて改良し調整することを約束しています。同ラボは、発見やベストプラクティスを広範なAIコミュニティと共有する意向も持っています。
Anthropicとの比較分析
この発表は、元OpenAIの研究者によって設立された競合ラボAnthropicによる、Responsible Scaling Policyの導入と同時期に行われました。このポリシーは、AIモデルの開発に関する詳細なAI安全性レベルとそれに応じたプロトコルを示しています。この2つのフレームワークは、構造と方法論において大きく異なります。Anthropicのポリシーは形式的で規範的であり、モデルの能力に直接関連しています。一方、OpenAIのフレームワークは、一般的なリスク閾値を設け、厳密な規制よりもレビューを発動させる柔軟で適応的なアプローチを提供します。
専門家は、両方のフレームワークには利点と欠点があると指摘しています。Anthropicは納入安全基準への準拠を奨励する点で優位に立つ可能性があります。なぜなら、そのポリシーは安全対策を開発プロセスに組み込んでいるからです。一方で、OpenAIのフレームワークは比較的自由裁量が大きく、人間の判断を反映することができるため、ばらつきが生じる可能性があります。
観察者は、OpenAIがGPT-4のような先進的なモデルの急速な展開に対する反発を受けて安全プロトコルに追いつこうとしているのではないかと指摘しています。Anthropicのプロアクティブな安全アプローチは、競争上の優位性をもたらす可能性があります。
結局、両方のフレームワークは、先進AI機能の追求に目が向けられている中でしばしば影に隠れているAI安全性の分野での大きな進展を示しています。AI技術が進化し広がる中、主要なラボ間での安全対策の協力と調整が、倫理的かつ人類にとって有益なAIの使用を確保するために極めて重要です。