L'Assistant IA de Wells Fargo, propulsé par la technologie de Google, prévoit d'atteindre 100 millions d'interactions par an.

Le directeur des technologies de l'information de Wells Fargo, Chintan Mehta, a partagé des informations sur l'utilisation par la banque d'applications d'intelligence artificielle générative, soulignant que leur application d'assistant virtuel, Fargo, a déjà géré 20 millions d'interactions depuis son lancement en mars. "Nous pensons qu'elle a le potentiel de traiter près de 100 millions d'interactions par an," a déclaré Mehta lors d'un événement à San Francisco, insistant sur le fait que ce chiffre augmentera avec l'amélioration des capacités et des types de conversations.

Les avancées de la banque en matière d'IA sont remarquables, surtout par rapport à de nombreuses grandes entreprises qui en sont encore au stade de la preuve de concept. Malgré des attentes selon lesquelles les grandes banques avanceraient prudemment en raison de préoccupations réglementaires, Wells Fargo progresse rapidement. La banque a inscrit 4 000 employés au programme d'IA centrée sur l'humain de Stanford et a déjà de nombreux projets d'IA générative en production, visant à accroître l'efficacité des opérations de back-office.

Mehta a pris la parole lors de l'événement AI Impact Tour, qui visait à aider les entreprises à établir une feuille de route pour la gouvernance de l'IA, notamment concernant les applications d'IA générative exploitant des modèles de langage de grande taille (LLM) pour des réponses intelligentes. En tant que l'une des trois premières banques aux États-Unis, avec 1,7 trillion de dollars d'actifs, Wells Fargo utilise activement des LLM dans tous ses services.

Fargo, l'assistant virtuel basé sur smartphone, offre aux clients des réponses en temps réel à leurs questions bancaires par voix ou par texte. Il enregistre actuellement une moyenne de 2,7 interactions par session et peut effectuer des tâches telles que les paiements de factures et les demandes de transactions. Développé sur Google Dialogflow et utilisant le modèle PaLM 2 de Google, Fargo évolue pour intégrer plusieurs LLM selon les fonctionnalités—"vous n’avez pas besoin du même grand modèle pour tout," a affirmé Mehta.

Une autre application, Livesync, aide les clients dans l’établissement de leurs objectifs et la planification. Lancée récemment, elle a rapidement attiré un million d'utilisateurs actifs mensuels dès son premier mois.

Wells Fargo a également adopté des LLM open-source, y compris le modèle Llama 2 de Meta, pour ses applications internes. Bien que l'adoption de modèles open-source ait été lente depuis l'essor de l'intérêt pour ChatGPT d'OpenAI à la fin de 2022, ces modèles offrent une personnalisation et un contrôle accrus, ce qui est bénéfique pour des cas d'utilisation spécifiques, selon Mehta.

La banque a développé une plateforme d'IA nommée Tachyon pour soutenir ses initiatives en matière d'IA. Cette plateforme repose sur le principe qu'aucun modèle d'IA unique ne dominera, que la banque utilisera plusieurs fournisseurs de services cloud, et que des défis de transfert de données existent entre différentes bases de données. Tachyon est adaptable, permettant l’intégration de nouveaux modèles plus volumineux tout en maintenant performance et résilience. Des techniques telles que le partitionnement de modèles et le partitionnement de tenseurs améliorent l'efficacité de l'entraînement et réduisent les exigences informatiques.

En se projetant vers l'avenir, Mehta a mentionné que des LLM multimodaux, qui facilitent la communication via des images, vidéos et textes, seront essentiels. Il a proposé un scénario hypothétique d'une application commerciale où les utilisateurs pourraient télécharger des images et, à l'aide d'un assistant virtuel, réserver sans effort des services liés à ces images. Bien que les modèles multimodaux actuels nécessitent une entrée textuelle significative pour le contexte, il a noté qu'augmenter la capacité du modèle à comprendre l'intention avec moins de texte est un domaine d'intérêt clé.

Mehta a affirmé que la valeur fondamentale de la banque—associer capital et besoins des clients—reste stable, avec une innovation centrée sur l'amélioration de l'expérience utilisateur. Il a décrit le potentiel des LLM à devenir plus "agissants," permettant aux utilisateurs d'accomplir des tâches de manière fluide grâce à des entrées multimodales.

Concernant la gouvernance de l'IA, Mehta a souligné l'importance de définir clairement l’objectif de chaque application. Bien qu'une grande partie du défi de la gouvernance ait été abordée, des préoccupations liées à la sécurité des applications, y compris la cybersécurité et la fraude, persistent.

Mehta a exprimé son inquiétude face à la lenteur des réglementations bancaires, qui peinent à suivre l'évolution de l'IA générative et de la finance décentralisée. "Il existe un fossé croissant entre nos aspirations et les réglementations actuelles," a-t-il déclaré, notant que les changements réglementaires pourraient influencer de manière significative les opérations et les stratégies économiques de Wells Fargo.

Pour naviguer dans ce paysage, la banque investit d'importantes ressources dans l'IA explicable, un domaine de recherche axé sur la compréhension des raisonnements derrière les conclusions des modèles d'IA.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles