Der Chief Information Officer von Wells Fargo, Chintan Mehta, teilte Erkenntnisse über den Einsatz generativer KI-Anwendungen der Bank mit und hob hervor, dass die virtuelle Assistenten-App Fargo seit ihrem Start im März 20 Millionen Interaktionen verarbeitet hat. „Wir glauben, dass sie das Potenzial hat, jährlich fast 100 Millionen Interaktionen zu verwalten,“ erklärte Mehta bei einer Veranstaltung in San Francisco und betonte, dass diese Zahl mit der Weiterentwicklung der Funktionen und Gesprächsarten steigen wird.
Der Fortschritt der Bank im Bereich KI ist bemerkenswert, insbesondere im Vergleich zu vielen großen Unternehmen, die sich noch in der Konzeptphase befinden. Trotz der Erwartung, dass große Banken aufgrund regulatorischer Bedenken vorsichtig vorgehen würden, entwickelt sich Wells Fargo schnell weiter. Die Bank hat 4.000 Mitarbeiter in das Programm für menschzentrierte KI an der Stanford-Universität eingeschrieben und hat bereits zahlreiche generative KI-Projekte in der Produktion, die sich auf die Steigerung der Effizienz im Backoffice konzentrieren.
Mehta sprach auf der AI Impact Tour, die großen Unternehmen helfen soll, einen Governance-Rahmen für KI zu entwickeln, insbesondere im Hinblick auf generative KI-Anwendungen, die große Sprachmodelle (LLMs) für intelligente Antworten nutzen. Als eine der drei größten Banken in den USA mit einem Vermögen von 1,7 Billionen Dollar nutzt Wells Fargo aktiv LLMs in seinen Dienstleistungen.
Fargo, der smartphonebasierte virtuelle Assistent, bietet Kunden in Echtzeit Antworten auf Bankanfragen via Sprache oder Text. Derzeit wird ein Durchschnitt von 2,7 Interaktionen pro Sitzung erreicht, und Fargo kann Aufgaben wie Rechnungszahlungen und Transaktionsabfragen durchführen. Auf Google Dialogflow basierend und mit Googles PaLM 2 LLM ausgestattet, entwickelt sich Fargo weiter, um mehrere LLMs für unterschiedliche Funktionen zu integrieren. „Man benötigt nicht für alles dasselbe große Modell,“ betonte Mehta.
Eine weitere Anwendung, Livesync, unterstützt Kunden bei der Zielsetzung und Planung. Sie wurde kürzlich eingeführt und zog im ersten Monat schnell eine Million monatlich aktiver Nutzer an.
Wells Fargo hat auch Open-Source-LLMs wie das Llama 2-Modell von Meta für interne Anwendungen angenommen. Obwohl die Akzeptanz von Open-Source-Modellen seit dem Anstieg des Interesses an OpenAIs ChatGPT Ende 2022 langsam war, ermöglichen diese Modelle eine größere Anpassung und Kontrolle, die für spezifische Anwendungsfälle vorteilhaft ist, so Mehta.
Die Bank hat eine KI-Plattform namens Tachyon entwickelt, um ihre KI-Initiativen zu unterstützen. Diese Plattform basiert auf den Grundsätzen, dass kein einzelnes KI-Modell dominieren wird, dass die Bank mehrere Cloud-Service-Anbieter nutzen will und dass es Herausforderungen beim Datentransfer zwischen verschiedenen Datenbanken gibt. Tachyon ist anpassungsfähig und ermöglicht die Integration neuer, größerer Modelle, während Leistung und Widerstandsfähigkeit aufrechterhalten werden. Techniken wie Model-Sharding und Tensor-Sharding verbessern die Trainingseffizienz und reduzieren die Rechenanforderungen.
Blickt man in die Zukunft, erwähnte Mehta, dass multimodale LLMs, die Kommunikation durch Bilder, Videos und Text ermöglichen, entscheidend sein werden. Er illustrierte ein hypothetisches Szenario einer Handels-App, in der Nutzer Bilder hochladen und mithilfe eines virtuellen Assistenten nahtlos Dienstleistungen im Zusammenhang mit diesen Bildern buchen könnten. Während aktuelle multimodale Modelle erhebliche Texteinträge für den Kontext erfordern, bemerkte er, dass die Verbesserung der Fähigkeit des Modells, Absicht mit weniger Text zu verstehen, ein zentraler Fokus ist.
Mehta betonte, dass der grundlegende Wert des Bankwesens – die Anpassung des Kapitals an die Bedürfnisse der Kunden – stabil bleibt, während Innovationen darauf abzielen, das Nutzererlebnis zu verbessern. Er beschrieb das Potenzial von LLMs, agentenhaft zu werden, sodass Nutzer Aufgaben problemlos durch multimodale Eingaben abschließen können.
Im Hinblick auf die KI-Governance unterstrich Mehta die Bedeutung einer klaren Definition des Zwecks jeder Anwendung. Obwohl viele Governance-Herausforderungen bereits angegangen wurden, bestehen weiterhin Bedenken hinsichtlich der Anwendungs- und Cybersicherheit sowie des Betrugs.
Er äußerte Bedenken über das Auseinanderklaffen der Bankvorschriften, die Schwierigkeiten haben, mit den Fortschritten der generativen KI und der dezentralisierten Finanzen Schritt zu halten. „Es gibt eine wachsende Kluft zwischen unseren Ambitionen und den aktuellen Vorschriften,“ sagte er und wies darauf hin, dass regulatorische Veränderungen die Abläufe und wirtschaftlichen Strategien von Wells Fargo erheblich beeinflussen könnten.
Um sich in diesem Umfeld zurechtzufinden, investiert die Bank erhebliche Ressourcen in erklärbare KI, ein Forschungsbereich, der darauf abzielt, das Verständnis der Entscheidungsfindung hinter den Schlussfolgerungen von KI-Modellen zu fördern.