ダボス2024後:AIの期待を具体的な現実に変える

2024年のダボス会議では、AIが大きな話題となり、教育から規制に至るまでその影響に焦点を当てたセッションが24以上行われました。出席者には、OpenAIのCEOSam Altman、Inflection AIのCEOムスタファ・スレイマン、AIの先駆者アンドリュー・ン、MetaのチーフAIサイエンティストヤン・ルカン、CohereのCEOエイダン・ゴメスといったAI業界のリーダーたちが名を連ねました。

ダボスでの議論は、2023年の楽観的な期待から大きく変化しました。IBMの政府・規制担当副社長クリス・パディラ氏が『ワシントン・ポスト』に語ったように、「昨年は驚きの雰囲気が漂っていましたが、今年はリスクの評価とAIの信頼性確保が中心です。」

今年の重要な懸念点には、広がる誤情報、雇用の喪失、豊かな国と貧しい国の間の経済的格差が含まれていました。特に、ディープフェイク技術による誤情報の増加が最も深刻な問題となっています。これは、現実を歪め、公衆の信頼を損なう操作された写真、動画、音声を指します。ジョー・バイデン大統領の声を模倣したロボコールの例が、ニューハンプシャープライマリー前に発生し、この脅威を顕在化させました。

カーネギーメロン大学のキャスリーン・カーリー教授も「これは有権者抑圧や選挙の公正性に対する攻撃の氷山の一角に過ぎません」と警鐘を鳴らしています。企業AIコンサルタントのルーベン・コーエン氏も、AIの進展が2024年の選挙におけるディープフェイクコンテンツの急増を引き起こす可能性があると警戒しています。

信頼性のあるディープフェイク検出方法はまだ確立されておらず、ジョレミー・カーン氏がフォーチュンで報告したように、「迅速な解決が必要です。不信感は民主主義に有害です。」

楽観から警戒へと焦点が移る中、スレイマン氏はAI関連の脅威に対処するための「冷戦戦略」を提唱しました。彼は、AI技術がよりアクセスしやすくなることで、敵対的な組織による悪用が懸念され、確認作業を超えた混乱を招く可能性があると強調しました。

数十年にわたりAIに関する懸念が広がっており、1968年の映画『2001年宇宙の旅』にもその一端が描かれています。消費者技術の一例として、ファービーおもちゃがセキュリティの脆弱性に対する警戒を引き起こしたこともあります。NSAはこれらが監視デバイスとして機能する可能性があるとの理由から禁止しました。

AIは今後すぐにも汎用人工知能(AGI)を実現するという予測が高まる中、AGIの定義は人間の知性を超えるAIとして論争の的です。アルトマン氏やゴメス氏はその到来に楽観的ですが、ルカン氏は依然として重要なブレークスルーが必要であると警告しています。

AIに対する世論は分かれており、2024年のエデルマン信頼度調査によれば、35%がAIを拒否し、30%が受け入れています。AIの潜在的な利益への認識は、そのリスクに対する懸念と相まって揺れています。人々は専門家によるガイダンスを受け、AIの影響をコントロールできることが確認されると、AIの進展をより受け入れる傾向があります。

AIの進化に対しては迅速に対応するだけでなく、長期的な結果に対してもバランスの取れた見方が必要です。ロイ・アマラが有名に語ったように、「私たちは技術の短期的な影響を過大評価し、長期的な影響を過小評価しがちです。」

探索や試行が続く中で、AIの広範な成功が保証されているわけではありません。AIテスト非営利団体のCEO、ルマン・チャウドリ氏は、2024年に「失望の谷」が迫っていると予測しています。この谷では期待が現実に沿わない可能性があります。

この年はAIの変革の可能性を評価する上で重要な年となるかもしれません。組織が個人および業務向けに生成AIを探求する中で、技術的な興奮と具体的な価値を結びつけることが重要です。アクセンチュアのCEOジュリー・スウィート氏によれば、C-suiteリーダー向けに提供されるワークショップは、AIの潜在能力を実現するための重要なステップを示しています。

私たちがAIの複雑な状況を乗り越える中で、慎重な意思決定と革新的な思考が求められます。AIが人間の可能性を強化し、共通の価値観と誠実さを守る未来を形作る責任は私たちにあります。

※ガリー・グロスマンはエデルマンのテクノロジープラクティスのエグゼクティブバイスプレジデントであり、エデルマンAIセンターオブエクセレンスのグローバルリードを務めています。

Most people like

Find AI tools in YBX