Sam Altman:新しいOpenAIモデルが最初に米国政府の安全チェックを受ける予定

先進的な人工知能(AI)システムの安全性に対する懸念が高まる中、OpenAIのCEOSam Altman氏は、同社の次期大規模生成AIモデルがリリース前に米国政府との安全チェックを受けることを発表しました。

アルトマン氏はXに投稿し、OpenAIが米国AI安全研究所と協力し、新しい基盤モデルへの早期アクセスを許可する合意を結んだことを明らかにしました。このパートナーシップは、AI評価科学の進展と強固な安全対策の確立を目的としています。

OpenAIの安全へのコミットメント

アルトマン氏は、OpenAIが現在および退職した従業員が会社の慣行について懸念を自由に表明できるよう、企業の不当言及防止ポリシーを見直したことを強調しました。また、同社は安全研究に対して計算リソースの少なくとも20%を充てることを約束しています。

米国上院議員の懸念

ChatGPTや最近発表されたSearchGPTなどを通じてAI業界のリーダーとして浮上しているOpenAIの急速な発展戦略は物議を醸しています。元安全担当者を含む批評家たちは、迅速な進展を優先するあまり安全性を軽視していると非難しています。

この懸念を受けて、5人の米国上院議員はアルトマン氏に対して、OpenAIの安全性への取り組みに疑問を投げかけ、警告を発した元従業員に対する報復の疑惑についても触れました。議員たちは、現在の安全に関する懸念がOpenAIの責任あるAI開発に対する約束と矛盾しているように見えると表明しました。

OpenAI経営陣の対応

ブルームバーグによると、OpenAIの最高戦略責任者ジェイソン・クウォン氏は、同社の使命は人類の利益に貢献するAIを開発することだと再確認しました。彼は、プロセス全体にわたる厳格な安全対策の実施と従業員との透明性の維持へのOpenAIのコミットメントを強調しました。

クウォン氏は、計算リソースの20%を安全研究に充てる計画や、不当言及防止条項を撤廃しオープンダイアログを促進する意向、AI安全研究所と連携して安全なモデルをリリースする計画を繰り返しました。

アルトマン氏もX上でこのコミットメントを強調しましたが、AI安全研究所との具体的な協力内容については明らかにしませんでした。

安全なAIのための協力

AI安全研究所は、全国標準技術局(NIST)の一部であり、英国AI安全サミット時に設立され、先進的なAIに関連する潜在的なリスク(国家安全や公共の安全に関する懸念を含む)に取り組んでいます。この研究所は、Meta、Apple、Amazon、Google、OpenAIを含む100社以上の技術企業と協力してAI開発の安全性を推進しています。

重要なのは、OpenAIが米国政府とのみ提携しているわけではなく、英国政府との間でも同様の安全レビュー合意を結んでいることです。

高まる安全への懸念

安全への懸念は、OpenAIの超知能AIの安全システムを開発するスーパアラインメントチームの共同リーダーであるイリヤ・サツケバーとヤン・ライケが突然辞任した5月に強まった。ライケ氏は、会社が重要な安全対策よりも華々しい製品を優先していると公然と批判しました。

彼らの退職後、スーパアラインメントチームが解散したとの報告もありました。それにもかかわらず、OpenAIは製品のリリースを続けながら、社内研究と新たな安全保障委員会の設立を通じて安全性へのコミットメントを強化しています。この委員会は、Bret Taylor(OpenAIの取締役会長)が議長を務め、QuoraのCEOアダム・ダンジェロやソニーの元グローバル法律顧問ニコール・セリグマンなどが参加しています。

これらの取り組みを通じて、OpenAIは先進的なAI技術に関する重要な安全問題に対処し、革新と責任ある開発のバランスを取ることを目指しています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles