ジェネレーティブAIによるシティの変革
ジェネレーティブAIはシティにおいて重要な変革をもたらし、データに基づく意思決定を強化しています。しかし、外部向けのチャットボットは、その固有のリスクを理由に導入しない方針です。
シティの分析技術および革新責任者、プロミティ・ダッタ氏は、ニューヨークで開催されたAIインパクトツアーにおいてこの見解を示しました。彼女は、「私がシティに入社してから4年半、データサイエンスと分析はしばしば二の次とされていました。しかし、ジェネレーティブAIの登場は価値観を一変させ、データと分析が最前面に位置づけられるようになりました。突然、皆がAIソリューションの探求に意欲を燃やすようになりました」と述べました。
シティのジェネレーティブAIの優先事項
ダッタ氏は、この文化の変化が社内のAIプロジェクトへの熱意を呼び起こしたことを説明しました。シティは、具体的な成果をもたらすことに重点を置いた三つの主要なジェネレーティブAIの取り組みを分類しています。
1. エージェントアシスト: 大規模言語モデル(LLM)がコールセンターのエージェントを支援し、顧客情報の要約ややり取り中のメモ取りを効果的に行います。このアプリケーションは直接顧客と向き合うものではありませんが、エージェントが顧客のニーズに応える能力を高めます。
2. タスク自動化: LLMは、膨大なコンプライアンス文書の要約や従業員が必要な情報を探す手助けをするなど、手動プロセスを簡素化します。
3. 内部検索機能: シティは、従業員がデータ主導の洞察を容易に得られるように、集中型の内部検索エンジンを開発中です。このツールは近く、自然言語を通じて分析を生成できる機能を提供し、組織全体の効率を向上させます。
外部接点への慎重なアプローチ
シティは内部ではジェネレーティブAIを積極的に活用していますが、ダッタ氏は顧客とのインタラクションにLLMを使用することに対して慎重である理由として、リスクを挙げました。特に、LLMによる「幻覚」現象には注意が必要であり、これはクリエイティブな文脈では役立つ場合もありますが、金融サービスにおいては許容できない精度のリスクをもたらします。「信頼が最も重要な業界であるため、顧客とのやり取りにおいてミスを犯すわけにはいきません」と彼女は強調しました。
現在、シティは2022年後半のジェネレーティブAIの急増以前から確立されている事前スクリプトされた自然言語処理(NLP)手法を用いて顧客とコミュニケーションを行っています。
LLMの将来展望
シティはLLMの外部活用にも前向きですが、すべての実装には人間の監視を含む必要があるとしています。ダッタ氏は、規制が厳しい銀行環境では新技術を採用する前に徹底的なテストが必要だと述べました。この慎重なアプローチは、顧客とのインタラクションにジェネレーティブAIを積極的に使用しているウェルズファーゴとは対照的です。
内部プロセスの変革
シティの内部タスクフォースは、ジェネレーティブAIの取り組みを精査し、顧客の安全を考慮した責任ある導入を確保しています。ダッタ氏は、組織全体がジェネレーティブAIに対する期待を抱いていることを話し、この興奮を効果的に管理する必要性を強調しました。
Microsoftのサラ・バード氏は、AIシステムの安定性の重要性を指摘し、特に情報検索を強化する生成(RAG)を用いるアプリケーションにおけるLLMの不正確さに取り組んでいると述べました。これらのモデルの信頼性を向上させるための継続的な努力が行われています。
イベントでは、ニューヨーク・プレスビテリアンのアシュリー・ビーシー博士が、ジェネレーティブAIが多モーダルモデルを通じて医療の変革を引き起こしていることを強調し、患者ケアのパラダイムシフトを示しました。
結論
シティは、ジェネレーティブAIの領域を戦略的に進むことで、内部の強化に集中しながら、顧客向けアプリケーションに伴うリスクについても警戒を怠っていません。このアプローチは、革新と責任を融合させ、安全性と顧客の信頼を最優先に保ちつつ、技術が進化していくことを目指しています。