最近の取締役会の混乱を受けて、OpenAIはAIモデルの安全性テストに特化した新しい「備えチーム」を設立し、監視体制を強化することを決定しました。この戦略的な取り組みは、CEOSam Altmanを解雇した際の物議を醸す決定の後に行われました。この決定は、技術の急速な商業化に関するリスクに対する適切な安全対策の不足を懸念した主任科学者イリヤ・スツケバーの懸念が背景にありました。従業員の反発を受けて、アルトマンは5日後に復職を果たし、企業の意思決定における従業員の支持の重要性を浮き彫りにしました。
安全プロトコルを強化するために、OpenAIの新しい備えチームは、基盤モデルに対する包括的な評価とストレステストを実施します。このチームが作成する報告書は、OpenAIのリーダーシップと新設された取締役会と共有されます。リーダーシップチームはテスト結果に基づいてモデルの採用可否を決定しますが、取締役会はその決定を覆す権限を持つことになり、意思決定プロセスの透明性が高まります。
最近のブログ記事でOpenAIは、「この技術的作業は、安全なモデルの開発と展開に向けたOpenAIの意思決定を支える上で非常に重要です」と強調しています。今回の取締役会の再編成は、リーダーシップ危機の際に行われ、会員数を3名から9名に拡大する計画があり、Microsoftからの非投票のオブザーバーも含まれます。現在の取締役会には、元米国財務長官のラリー・サマーズ、Salesforceの元共同CEOブレット・テイラー、Quoraの共同創設者アダム・ダンジェロのような著名な人物が含まれ、ダンジェロ氏は前の取締役会の唯一の残留メンバーです。
OpenAIの使命は明確です:人類に対する主要な信託責任を持ち、汎用人工知能(AGI)の安全確保に深くコミットしています。組織の新しい「備えフレームワーク」は、モデルの展開から貴重な洞察を得ることで、新たなリスクに効果的に対処できるようにすることを目指しています。OpenAIは、革新が加速する中、スピード感を持った安全対策が求められ、反復的な展開を通じた継続的な学習が必要であると主張しています。
この備えフレームワークの下で、新しいチームは定期的な安全訓練を実施し、発生するかもしれない問題に迅速に対応できるようにします。また、OpenAIは信頼できる独立した第三者に全面的な監査を委託し、責任と透明性を強化することにも取り組んでいます。
今後、すべてのOpenAIモデルは、トレーニング時に計算能力が倍増するたびに継続的に更新と評価を受けます。テストプロセスは、サイバーセキュリティの脆弱性、悪用の可能性、有害な出力に関する自律的意思決定の能力を含む重要な分野を網羅します。
モデルは、EUのAI法に準じた四つの安全リスクレベルに分類されます。これらのカテゴリーは、低、中、高、そして危機的リスクレベルに分かれます。中程度のリスク以下と評価されたモデルは展開に適していると見なされますが、高リスクまたは危機的リスクに分類されるモデルはさらなる開発と注意が必要です。
現在、OpenAIの備えフレームワークはベータ版の段階にあり、新たな洞察が得られるにつれて調整が続けられる予定です。この積極的なアプローチは、AI技術の進展だけでなく、そのような革新に伴う安全性と倫理的考慮の確保に対する同社の献身を反映しています。