威尔斯法戈的首席信息官Chintan Mehta分享了银行在生成式人工智能(AI)应用方面的见解,强调其虚拟助手应用Fargo自3月份上线以来已处理了2000万次交互。他在旧金山的一个活动中表示:“我们相信它每年有潜力处理接近1亿次交互。”他指出,随着能力和对话类型的提升,这一数字将不断增加。
与许多仍处于概念验证阶段的大公司相比,威尔斯法戈在人工智能方面的进展值得关注。尽管人们普遍预计大型银行会因监管问题而谨慎行事,但威尔斯法戈正迅速推进。目前,银行已邀请4000名员工参加斯坦福大学的人本AI项目,并有多个生成式AI项目投入生产,主要聚焦于提高后端效率。
Mehta在AI影响力巡回活动中发言,旨在帮助企业建立AI治理蓝图,特别是针对利用大型语言模型(LLMs)进行智能响应的生成式AI应用。作为美国三大银行之一,威尔斯法戈的资产达到1.7万亿美元,积极在各项服务中应用LLMs。
Fargo是基于智能手机的虚拟助手,客户可以通过语音或文本实时获取银行相关询问的答案。其每次会话的平均交互次数为2.7,可以进行账单支付和交易查询等任务。Fargo基于Google Dialogflow开发,并使用Google的PaLM 2 LLM,正逐步集成多种LLM以实现不同功能——“对于不同用途,您不需要同一个大型模型,”Mehta强调。
另一个应用Livesync帮助客户设定和规划目标。该应用于最近上线,第一个月内迅速吸引了一百万活跃用户。
威尔斯法戈还采用了开源LLM,包括Meta的Llama 2模型,用于内部应用。虽然自2022年底OpenAI的ChatGPT受到广泛关注以来,开源模型的采用速度较慢,但Mehta指出,这些模型允许更大的定制和控制,适用于特定应用场景。
银行开发了一款名为Tachyon的AI平台,以支持其AI инициативи。该平台遵循一些原则,包括没有单一的AI模型会主导,使用多家云服务提供商,并解决不同数据库之间的数据传输挑战。Tachyon具有适应性,可以在保持性能和弹性的同时引入新的、更大的模型。诸如模型分片和张量分片等技术提升了训练效率,降低了计算需求。
展望未来,Mehta提到多模态LLMs将至关重要,这些模型能够通过图像、视频和文本进行交流。他设想了一个电商应用的场景,用户可以上传图像,并利用虚拟助手无缝预订与这些图像相关的服务。他指出,目前的多模态模型需要大量文本输入以提供上下文,提高模型在更少文本情况下理解意图的能力是一个重要的研究方向。
Mehta强调,银行的基本价值在于将资本与客户需求匹配,这一原则始终保持不变,创新的重点在于提升用户体验。他描绘了LLMs在多模态输入下使用户更流畅地完成任务的潜力。
在谈到AI治理时,Mehta强调了明确每个应用目的的重要性。尽管许多治理挑战已被解决,但在应用安全,包括网络安全和欺诈方面,仍然存在顾虑。
Mehta对银行监管滞后感到忧虑,指出监管难以跟上生成式AI和去中心化金融的进展。他表示:“我们的理想与现行监管之间存在越来越大的差距,”并指出监管变更可能会对威尔斯法戈的运营和经济策略产生重大影响。
为了应对这一局面,银行正在在可解释的AI领域投入大量资源,致力于理解AI模型结论背后的推理过程。