AI進捗報告2024:重要な発見とトレンド
スタンフォード大学の人間中心のAI研究所が発表した「AIインデックス2024」レポートによると、2023年は人工知能(AI)の技術基準、研究成果、商業投資が大きく進展しました。しかし、そのリスクや社会的影響に関する懸念も増大しています。
このレポートでは、AIシステムが画像分類、視覚的推論、英語理解などのベンチマークで人間のパフォーマンスを超えたことが明らかになりました。しかし、高度な数学、常識推論、戦略的計画といった複雑な分野では依然として課題が残ります。
AI研究の急増とコストの上昇
2023年には、主に民間セクターの推進により、AI研究と開発活動が著しく増加しました。企業は51の重要な機械学習(ML)モデルを発表し、学術機関からはわずか15でした。また、産業と学術のパートナーシップからはさらに21の注目モデルが追加されました。
高度なAIシステムのトレーニングにかかるコストは急騰しています。たとえば、OpenAIのGPT-4言語モデルは約7800万ドル、GoogleのGemini Ultraモデルは驚異的な1億9100万ドルの推定コストをかけました。
著者らは「最先端のAIモデルのトレーニングコストは前例のないレベルに達した」と指摘しています。
AI開発における地理的優位性
アメリカは2023年に61の注目すべきAIシステムを生産し、引き続きリーダーの地位を維持しています。中国と欧州連合はそれぞれ15と21のモデルを開発しました。
投資のトレンドは複雑な状況を反映しています。全体としての民間AI投資は2年連続で減少したものの、テキスト、画像、その他のメディアを生成することができる生成AIの資金は、約8倍増の252億ドルに達しました。OpenAI、Anthropic、Stability AIなどの有力企業が注目の資金を集めています。
レポートは「全体的なAI投資が減少しているにもかかわらず、生成AIセクターは驚くべき成長を見せている」と述べています。
標準化されたAIテストの必要性
AIの急速な発展は、システムの責任、安全性、セキュリティに関する標準化されたテストの欠如についての懸念を引き起こしています。OpenAIやGoogleといった大手開発者は、モデルをさまざまなベンチマークに基づいて評価しており、それが比較を一層複雑にしています。
AIインデックスの分析は「大規模言語モデル(LLM)の責任についての堅牢で標準化された評価が著しく不足しており、主要なAIモデルのリスクと限界を体系的に評価する努力を困難にしている」と警告しています。
新たなリスクと公共の懸念
政治的なディープフェイクの増加など、新たなリスクが浮上しています。これらは「生成が容易で、検出が困難」とされています。また、報告書は、言語モデル内の脆弱性が有害な結果を引き起こす可能性についても言及しています。
一般市民の間ではAIに対する不安感が高まっています。今後3〜5年でAIが「劇的な」影響を与えると予想する人の割合は、世界的に60%から66%へと上昇しました。現在、回答者の過半数がAI製品やサービスに不安を感じています。
アメリカでは、AIの役割の拡大に対する懸念が著しく高まっており、AIに対して「不安を感じる」アメリカ人の割合は2021年の37%から2023年には52%に増加し、「興奮を感じる」人は36%に減少しました。
レポートは「AIの潜在的な影響に対する公共の認識が高まっており、それに伴い不安も増しています」と結論付けています。AI技術が進化する中、AIインデックスは政策立案者、ビジネスリーダー、一般市民が今後の複雑な局面と機会を理解するための客観的インサイトを提供することを目指しています。