73%の組織が生成AIを導入しているが、リスク評価を行っているのはわずか—生成AI導入の現状と課題

最近、PwCの調査によると、アメリカのビジネスおよび技術分野の経営者1,001人のうち73%が、すでに生成AIを導入しているか、導入を計画していることが明らかになりました。こうした関心が高まる中、AI関連のリスクを評価し始めた企業はわずか58%です。PwCは、責任あるAIの実践には、価値、安全性、信頼の要素を企業のリスク管理プロセスに統合することが重要だと強調しています。

あなたはAIエージェントの準備ができていますか?

PwCの米国AI保証リーダーであるジェン・コサールは、以前は堅実な責任あるAI戦略なしにAIプロジェクトを立ち上げることが許容されていたが、もはやそれは通用しないと述べています。「私たちは今、サイクルの中でさらに進んでいるので、責任あるAIを構築する時期が今だ」とコサールは語りました。以前はAIプロジェクトが小規模なチームに限られていたのに対し、今では生成AIが広く採用されています。

生成AIのパイロットプロジェクト

生成AIのパイロットプロジェクトは、効果的なチーム統合とAIシステムの活用方法を探る上で重要な役割を果たしています。

新たな懸念

責任あるAIとリスク評価の重要性は、Elon MuskのxAI Grok-2モデルがソーシャルメディアプラットフォームX(旧Twitter)に展開された後に急速に注目を集めています。初期のフィードバックによると、この画像生成サービスには十分な制限がなく、公共の人物に対するデープフェイクなどの問題を引き起こすコンテンツが作成される恐れがあります。

責任あるAIのための最優先事項

調査では、PwCが特定した11の能力の優先順位を付けるよう参加者に求めました。具体的には以下の項目です。

- スキルアップ

- AIリスク専門家の配置

- 定期的なトレーニング

- データプライバシー

- データガバナンス

- サイバーセキュリティ

- モデルテスト

- モデル管理

- サードパーティリスク管理

- AIリスク管理のための専門ソフトウェア

- 監視と監査

参加者の80%以上がこれらの分野での進展を報告しましたが、全ての11の能力を完全に実装していると答えたのはわずか11%でした。PwCは、多くの組織が進展を過大評価している可能性があると警告しています。責任あるAIの管理は複雑であり、完全な実装を妨げることがあります。

責任あるAIにおける責任の重要性

PwCは企業がAI変革を進めるために、包括的な責任あるAI戦略の優先順位をつけることを推奨しています。責任あるAI実践についての明確な所有権と責任を設定することが重要で、理想的には一人の幹部の下で行われるべきです。コサールは、AIの安全性を組織全体の優先事項と見なすことの重要性を強調し、最高AI責任者や専門の責任あるAIリーダーの任命を提案しました。

コサールは、「AIが技術と運用リスクを統一する触媒になるかもしれません」と語りました。

PwCは、組織がAIシステムのライフサイクル全体を考慮することを提案しています。これは理論的な考慮を超えて、組織全体に安全性と信頼のポリシーを実装することを含みます。将来の規制に備えるためには、責任あるAIの実践とともにステークホルダーとの透明性を確保する計画が求められます。

コサールは、調査の結果、多くの経営者が責任あるAIを商業的利点と見なしていることに驚きを示し、「責任あるAIはリスク管理だけでなく、価値を創出するべきです。組織は、信頼に基づいて競争優位性を確保していると考えています」と結論づけました。

Most people like

Find AI tools in YBX