Während wir in die zweite Hälfte des Jahres 2024 eintreten, verläuft die Landschaft der Künstlichen Intelligenz (KI) einen tiefgreifenden Wandel. Die anfängliche Begeisterung nach der Veröffentlichung von ChatGPT durch OpenAI – das schnellste Produkt, das in der Geschichte 100 Millionen Nutzer gewann – lässt allmählich nach. Wir bewegen uns von einer Phase beinahe ungebremster Hype in eine Phase der Realität, in der Unternehmen damit kämpfen, KI-Technologien in echte Produkte zu integrieren.
Die Äußerungen von Sam Altman, dem CEO von OpenAI, über „magische Intelligenz im Himmel“, entfachten eine Begeisterung unter Entwicklern im Silicon Valley, die viele dazu veranlassten zu glauben, wir stünden kurz vor der Erreichung einer menschenähnlichen Maschinenintelligenz in allen Bereichen, bekannt als Artificial General Intelligence (AGI).
Doch mit dem Fortschreiten des Jahres 2024 entwickelt sich eine differenziertere Erzählung. Unternehmen, die sich mit den praktischen Aspekten der Implementierung von KI in realen Anwendungen auseinandersetzen, verfolgen einen überlegteren Ansatz. Es wird zunehmend klar, dass, obwohl große Sprachmodelle (LLMs) wie GPT-4o unglaublich leistungsfähig sind, generative KI insgesamt nicht den hohen Erwartungen des Silicon Valley gerecht geworden ist. Die Leistung der LLMs hat ein Plateau erreicht und sieht sich dauerhaft Herausforderungen in Bezug auf faktische Genauigkeit gegenüber. Rechtliche und ethische Bedenken sind weit verbreitet, und die Infrastruktur sowie Anwendungsfälle erweisen sich als schwieriger als erwartet. Wir sind eindeutig nicht auf einem direkten Weg zur AGI, wie manche gehofft hatten. Sogar bescheidenere Versprechungen, wie autonome KI-Agenten, stoßen auf zahlreiche Einschränkungen. Und konservative Technologien, die KI mit realen Daten und Genauigkeit „verankern“ sollen, wie RAG (Retrieval-Augmented Generation), stehen weiterhin vor großen Hürden. Grundsätzlich träumen LLMs immer noch von fantastischen Inhalten.
Stattdessen konzentrieren sich Unternehmen darauf, die beeindruckenden Grundfähigkeiten der bereits verfügbaren LLMs zu nutzen. Dieser Wandel vom Hype zur Realität wird durch sechs entscheidende Debatten unterstrichen, die die KI-Landschaft prägen. Diese Debatten spiegeln die Gräben zwischen den eifrigen Gläubigen an unmittelbare Superintelligenz und denjenigen wider, die einen pragmatischeren Ansatz zur KI-Adoption befürworten. Für Unternehmensleiter ist das Verständnis dieser Debatten entscheidend. Die Einsatzmöglichkeiten dieser mächtigen Technologie sind erheblich, selbst wenn sie nicht die gottgleichen Kräfte besitzen, die ihre leidenschaftlichsten Befürworter behaupten.
Missverstehen Sie das nicht. Die meisten Unternehmensleiter sind nach wie vor überzeugt, dass die Technologie bereits tiefgreifende Vorteile geschaffen hat. Während unserer jüngsten AI Impact Tour, bei der Meetings und Veranstaltungen mit Fortune-500-Unternehmen im ganzen Land stattfanden, diskutierten die Führungskräfte offen über ihre Bemühungen, das Potenzial der KI zu nutzen.
Diese sechs Debatten werden auch im Mittelpunkt der Gespräche auf unserer bevorstehenden VB Transform Veranstaltung stehen, die vom 9. bis 11. Juli im Herzen des SOMA-Viertels in San Francisco stattfindet. Wir haben die Veranstaltung basierend auf umfangreichen Gesprächen mit Führungskräften der größten Akteure im Bereich KI kuratiert.
Die Rednerliste umfasst Vertreter von Branchenriesen wie OpenAI, Anthropic, Nvidia, Microsoft, Google und Amazon sowie KI-Leiter von Fortune-500-Unternehmen wie Kaiser Permanente, Walmart und Bank of America.
Die Live-Debatten und Diskussionen bei Transform versprechen, Licht auf diese kritischen Themen zu werfen und den vor Ort anwesenden Teilnehmern eine einzigartige Gelegenheit zu bieten, sich mit Führungskräften an der Spitze der KI-Implementierung in Unternehmen auszutauschen.
Jetzt tauchen wir ein in die sechs Debatten:
1. Das LLM-Rennen: Ein Plateau in Sicht?
Das Rennen zur Entwicklung des fortschrittlichsten LLM ist seit dem Auftauchen von OpenAIs GPT-3 ein entscheidendes Merkmal der KI-Landschaft. Aber mit dem Eintritt in die zweite Hälfte von 2024 steht eine große Frage im Raum: Ist das LLM-Rennen zu Ende?
Die Antwort scheint ja zu sein – zumindest vorläufig. Das ist wichtig, denn die Unterschiede zwischen den führenden LLMs sind zunehmend unmerklich geworden, was bedeutet, dass Unternehmen nun nach Preis, Effizienz und spezifischer Anwendungsfallpassung auswählen können, anstatt dem „besten“ Modell nachzujagen.
Im Jahr 2023 erlebten wir ein dramatisches Rennen. OpenAI überholte alle anderen mit der Veröffentlichung von GPT-4 im März, das signifikante Verbesserungen in Bezug auf Schlussfolgerungen, multimodale Fähigkeiten und mehrsprachige Fertigkeiten zeigte. Analysten gingen davon aus, dass die Leistung weiter zunehmen würde, je mehr Daten in diese Modelle eingespeist werden. Eine Zeit lang schien das auch zu stimmen.
Doch im Jahr 2024 hat sich das Tempo erheblich verlangsamt. Trotz vager Versprechen von Altman, dass weitere Überraschungen bevorstehen, gab die COO Mira Murati Mitte Juni zu, dass OpenAI nichts mehr in seinen Labors hat als das, was bereits öffentlich ist. Jetzt sehen wir deutliche Anzeichen eines Abflachens. OpenAI scheint eine Wand erreicht zu haben, und der Rivale Anthropic hat aufgeholt, indem er Claude 3.5 Sonnet veröffentlichte, das in vielen Maßstäben besser abschneidet als GPT-4. Auffällig ist, dass Claude nicht wesentlich weiter voraus gewesen konnte; es ist nur inkrementell besser. Noch aussagekräftiger ist, dass Sonnet auf einem der kleineren Modelle von Anthropic basiert und nicht auf dem größeren Opus-Modell. Das deutet darauf hin, dass massive Datenmengen nicht zwangsläufig zu Verbesserungen führten, sondern dass Effizienzen und die Feinabstimmung kleinerer Modelle der Schlüssel sind.
Der Informatikprofessor Arvind Narayanan von Princeton schrieb letzte Woche, dass die verbreitete Ansicht, dass die Skalierung von Modellen auf dem Weg zur AGI sei, „auf einer Reihe von Mythen und Missverständnissen beruht“ und dass es praktisch keine Chance gibt, dass allein diese Skalierung zur AGI führen wird. Für Unternehmensleiter hat dies entscheidende Auswirkungen. Es bedeutet, dass sie die besten einzelnen LLMs für ihre spezifischen Zwecke nutzen sollten – und es gibt inzwischen Hunderte solcher LLMs. Es gibt kein besonderes „magisches Einhorn“-LLM, das alle anderen übertrifft. Bei der Auswahl ihrer LLMs sollten die Unternehmen auch offene LLMs, wie die auf Metas Llama oder IBMs Granite basierenden, in Betracht ziehen, die mehr Kontrolle bieten und eine einfachere Feinabstimmung auf spezifische Anwendungsfälle ermöglichen.
Auf der VB Transform werden wir diese Dynamiken mit wichtigen Rednern wie Olivier Godement, Head of Product API bei OpenAI; Jared Kaplan, Chief Scientist und Mitgründer von Anthropic; Colette Stallbaumer, Copilot GM bei Microsoft; David Cox, VP of AI Models bei IBM; und Yasmeen Ahmad, Managing Director bei Google Cloud, näher betrachten.
2. Der AGI-Hype-Zyklus: Höhepunkt oder Tiefpunkt?
Mit dem langsamer werden der Durchbrüche bei LLMs taucht eine größere Frage auf: Haben wir den Höhepunkt der überzogenen Erwartungen im AGI-Hype-Zyklus erreicht?
Unsere Antwort: Ja. Das ist wichtig, denn Unternehmen sollten sich darauf konzentrieren, bestehende KI-Fähigkeiten für reale Anwendungen zu nutzen, anstatt dem Versprechen der AGI nachzujagen.
Die Veröffentlichung von ChatGPT entfachte eine Welle der Begeisterung über die Möglichkeiten der KI. Die menschenähnlichen Interaktionen, gestützt auf enorme Mengen an Trainingsdaten, gaben den Eindruck wahrer Intelligenz. Dieser Durchbruch katapultierte Altman in den Status eines Gurus in der Tech-Welt.
Altman nahm diese Rolle an und machte großartige Ankündigungen über die Zukunft der KI. Im November 2023, nach der Veröffentlichung von GPT-4 Turbo, behauptete er, es würde im Vergleich zu dem, was sie entwickeln, „altmodisch“ aussehen. Er sprach davon, dass AGI in den nächsten Jahren möglich sei. Diese Äußerungen entfachten enorme Begeisterung unter den, die wir die gebannt Gläubigen im Silicon Valley nennen könnten.
Doch der Zauber begann zu schwinden. Altmans Ausschluss aus dem Vorstand von OpenAI Ende 2023 (wenn auch vorübergehend) war der erste Riss in der Rüstung. Als wir ins Jahr 2024 eintreten, schien seine Behauptung, AGI sei nahe, weniger überzeugend – er milderte seine Prognosen und betonte die Notwendigkeit weiterer Durchbrüche. Im Februar sagte Altman, AGI könnte bis zu 7 Billionen Dollar Investitionen erfordern.
Wettbewerber näherten sich dem führenden LLM von OpenAI, und die stetigen Verbesserungen, die viele vorhergesagt hatten, blieben aus. Die Kosten für die Einspeisung zusätzlicher Daten in diese Modelle stiegen, während ihre häufigen logischen Fehler und Halluzinationen bestehen blieben. Dies führte dazu, dass Experten wie Yann LeCun, Chief Scientist bei Meta, und andere argumentieren, dass LLMs eine massive Ablenkung und eine „Abweichung“ von der wahren AGI darstellen. LeCun vertritt die Ansicht, dass LLMs zwar beeindruckend in der Fähigkeit sind, menschenähnlichen Text zu verarbeiten und zu generieren, sie jedoch nicht über das fundamentale Verständnis und die Denkfähigkeiten verfügen, die für AGI erforderlich wären.
Das heißt nicht, dass der Hype vollständig verschwunden ist. Fieberhafte Begeisterung um KI herrscht weiterhin in bestimmten Silicon Valley-Kreisen, exemplifiziert durch ein leidenschaftliches vierstündiges Video von Leopold Aschenbrenner, einem ehemaligen OpenAI-Mitarbeiter, der argumentiert, dass AGI innerhalb von drei Jahren eintreffen könnte.
Aber viele erfahrene Beobachter, einschließlich Narayanan von Princeton, weisen auf gravierende Mängel in solchen Argumenten hin. Diese bodenständigere Perspektive sollten die meisten Unternehmen übernehmen.
In Gesprächen mit Führungskräften im Bereich Unternehmens-KI – von Unternehmen wie Honeywell, Kaiser Permanente, Chevron und Verizon – habe ich immer wieder gehört, dass die Realität der KI-Implementierung viel komplexer und nuancierter ist, als der Hype vermuten lässt. Während die Führungskräfte nach wie vor von ihrem Potenzial begeistert sind, ist es wichtig, sich nicht von der Vorstellung mitreißen zu lassen, dass sich KI so schnell verbessert, dass die nächste Generation der Technologie die Probleme der bestehenden Generationen lösen wird, sagt Steve Jones, EVP von Capgemini, einem Unternehmen, das anderen hilft, KI zu adoptieren. Man muss jetzt die Kontrollen einführen, um es gut zu nutzen: „Ob 20% oder 50% der Entscheidungen in den nächsten fünf Jahren von KI getroffen werden, spielt keine Rolle“, sagte er in einem Interview. Das Wesentliche ist, dass der Erfolg der eigenen Karriere auf dem Erfolg dieses Algorithmus basiert, und die Organisation von einem erwartet, die Funktionsweise zu verstehen und sicherzustellen, dass sie gut funktioniert.
„Da gibt es all den Unsinn rund um AGI“, sagt er und bezieht sich auf den fortdauernden Hype unter Entwicklern im Silicon Valley, die sich nicht wirklich auf Unternehmensbereitstellungen konzentrieren. Aber KI ist „mehr eine organisatorische Veränderung als eine technologische“, fügt er hinzu und betont, dass Unternehmen die realen, grundliegenden Fortschritte, die LLMs bereits bieten, nutzen und kontrollieren müssen.
Große Unternehmen lassen die Modellanbieter die harte Arbeit des Trainings übernehmen, während sie sich auf die Feinabstimmung der Modelle für ihre spezifischen Zwecke konzentrieren. Dieser pragmatischere Ansatz wird von Führungskräften aus den Bereichen Finanzen, Gesundheit und Einzelhandel, die wir verfolgen, geteilt.
Zum Beispiel konzentrieren sich JPMorgan Chase, Citi, Wells Fargo und andere Banken, mit denen ich gesprochen habe, darauf, KI zur Verbesserung spezifischer Bankfunktionen zu nutzen, was zu praktischen Anwendungen in der Betrugsbekämpfung, Risikomanagement und Kundenservice führt.
Im Gesundheitswesen bietet Dr. Ashley Beecy, medizinische Direktorin für KI-Operationen im NewYork-Presbyterian-Krankenhaussystem, ein weiteres Beispiel dafür, wie große Visionen durch praktische Anwendungen von KI verankert werden. Während sie sich eine KI vorstellt, die alles über einen Patienten weiß, erklärt sie, dass das Krankenhaus mit praktikableren Anwendungen beginnt, um die administrative Belastung der Ärzte zu verringern, indem Patientenbesuche aufgezeichnet und transkribiert werden.
Beecy weist darauf hin, dass viele der technischen Möglichkeiten für die ambitioniertere Version von KI vorhanden sind, es jedoch darauf ankommt, interne Workflows und Prozesse entsprechend anzupassen, oder wie sie es nennt: „Change Management“. Dies wird viel Arbeit erfordern, räumt sie ein, und auch den Austausch von Ideen durch nationale Gesundheitsorganisationen notwendig machen, da eine umfassendere strukturelle Veränderung erforderlich ist, die über ihr eigenes Krankenhaus hinausgeht.
Auf der VB Transform werden wir diese Spannung zwischen AGI-Hype und praktischer Realität mit Rednern aus dem gesamten Branchenspektrum erkunden und den Teilnehmern eine klare Sicht darauf geben, wo die KI-Fähigkeiten tatsächlich stehen und wie sie effektiv im Unternehmen genutzt werden können. Redner wie Jared Kaplan, Chief Scientist bei Anthropic, werden den aktuellen Stand der KI-Fähigkeiten und die Herausforderungen erörtern. Wir werden auch von Unternehmensführern hören, die erfolgreich durch diese Post-Hype-Landschaft navigieren, darunter Nhung Ho von Intuit und Bill Braun, CIO von Chevron.
3. Der GPU-Flaschenhals: Infrastrukturrealitäten
Gibt es einen GPU-Flaschenhals, der das Wachstum von GenAI behindert?
Unsere Antwort: Ja, aber es ist nuancierter, als es die Schlagzeilen suggerieren.
Warum es wichtig ist: Unternehmen müssen ihre Investitionen in die KI-Infrastruktur strategisch planen und dabei unmittelbare Bedürfnisse mit langfristiger Skalierbarkeit in Einklang bringen.
Der Anstieg der KI-Entwicklung hat zu einer beispiellosen Nachfrage nach spezialisierter Hardware geführt, insbesondere GPUs (Graphics Processing Units), die zur Ausführung von KI-Anwendungen benötigt werden. Nvidia, der führende GPU-Hersteller, hat eine Marktbewertung von über 3 Billionen Dollar erreicht und gehört zu den wertvollsten Unternehmen der Welt. Diese Nachfrage hat zu einem Angebotsengpass geführt, die Kosten in die Höhe getrieben und die Wartezeiten für diese kritische KI-Infrastruktur verlängert.
Der Flaschenhals ist jedoch nicht gleichmäßig über alle KI-Anwendungen verteilt. Während das Training großer Modelle immense Rechenleistung erfordert, konzentrieren sich viele Unternehmensanwendungen auf die Inferenz – das Ausführen vortrainierter Modelle, um Ergebnisse zu generieren. Für diese Anwendungen können die Hardwareanforderungen weniger anspruchsvoll sein.
Jonathan Ross, CEO von Groq, einem Unternehmen, das innovative KI-Chips entwickelt, argumentiert, dass Inferenz auch effizient auf Hardware ohne GPU ausgeführt werden kann. Die Sprachverarbeitungseinheiten (LPUs) von Groq versprechen signifikante Leistungssteigerungen für bestimmte KI-Aufgaben. Andere Start-ups dringen ebenfalls in diesen Bereich vor und stellen die Dominanz von Nvidia in Frage, während sie möglicherweise den GPU-Flaschenhals lindern.
Trotz dieser Entwicklungen deutet der allgemeine Trend auf steigende Rechenanforderungen hin. KI-Labore und hyperskalierte Cloud- Unternehmen, die fortschrittliche Modelle trainieren und sich als führend behaupten wollen, bauen massive Rechenzentren, wobei einige dem beitreten, was ich den „500K GPU Club“ nenne. Dieses Wettrüsten weckt auch Interesse an alternativen Technologien wie Quantencomputing, Photonik und sogar synthetischer DNA zur Datenspeicherung zur Unterstützung der Skalierung von KI.
Dennoch sehen sich die meisten Unternehmensunternehmen nicht in Bezug auf die Verfügbarkeit von GPUs eingeschränkt. Die meisten werden einfach Azure, AWS und die GCP-Clouds von Google nutzen und den großen Anbietern die Kosten für den GPU-Ausbau überlassen.
Nehmen wir Intuit, eines der ersten Unternehmen, das im letzten Jahr ernsthaft generative KI umarmte. Die VP von AI, Nhung Ho, sagte mir letzte Woche, dass das Unternehmen nicht die neuesten GPUs für seine Arbeit benötigt. „Es gibt viele ältere GPUs, die gut funktionieren“, sagte Ho. „Wir arbeiten mit sechs oder sieben Jahre alter Technologie… sie funktioniert wunderbar.“ Das deutet darauf hin, dass für viele Unternehmensanwendungen kreative Lösungen und effiziente Architekturen den Hardwareflaschenhals mindern können.
Auf der VB Transform werden wir tiefer in diese Infrastrukturherausforderungen eintauchen. Redner wie Jonathan Ross von Groq, Nik Spirin von Nvidia, Jamie Garcia, Direktor für Quantenalgorithmen bei IBM, und Kirk Bresniker, Chief Architect bei HPE, werden die sich entwickelnde Landschaft der KI-Hardware erörtern. Wir werden auch von Cloud-Anbietern wie AWS hören, die daran arbeiten, Softwareoptimierungen vorzunehmen, um die vorhandenen Hardwarefähigkeiten zu maximieren.
4. Inhaltsrechte und LLM-Training: Rechtliche Minenfelder vor uns
Ist aller Inhalt im Internet kostenfrei für das Training von LLMs?
Unsere Antwort: Nein, und das stellt bedeutende rechtliche und ethische Herausforderungen dar.
Warum es wichtig ist: Unternehmen sollten sich der potenziellen Urheberrechts- und Datenschutzprobleme bewusst sein, wenn sie KI-Modelle einsetzen, da sich die rechtlichen Rahmenbedingungen schnell entwickeln.
Die Daten, die zum Training von LLMs verwendet werden, sind ein umstrittenes Thema, mit weitreichenden Auswirkungen für KI-Entwickler und Unternehmensnutzer gleichermaßen. Die New York Times und das Center for Investigative Reporting haben Klage gegen OpenAI eingereicht und werfen ihm vor, seine Inhalte unautorisiert zum Training verwendet zu haben, was nur die Spitze des Eisbergs darstellt.
Dieser Rechtsstreit wirft eine entscheidende Frage auf: Haben KI-Unternehmen das Recht, Online-Inhalte ohne ausdrückliche Genehmigung oder Entschädigung zu scrapen und zu nutzen? Die Antwort darauf ist unklar, und Rechtsexperten schlagen vor, dass es bis zu ein Jahrzehnt dauern könnte, bis diese Frage vor Gericht vollständig geklärt ist.
Während viele KI-Unternehmen Entschädigungen für Unternehmen anbieten, die ihre Dienste nutzen, schützt dies die Firmen nicht vollständig vor möglichen rechtlichen Risiken. Die Situation wird zusätzlich durch aufkommende KI-gesteuerte Suchmaschinen und Zusammenfassungswerkzeuge kompliziert. Perplexity AI beispielsweise wurde dafür kritisiert, geschützte Artikel zusammenzufassen, was zu einer Beschwerde von Forbes führte, die Urheberrechtsverletzungen behauptet.
Als Gründer eines Medienunternehmens habe ich ein Interesse an dieser Debatte. Unser Geschäftsmodell basiert, wie viele Verlage, auf Seitenaufrufen und Werbung. Wenn KI-Modelle unsere Inhalte frei zusammenfassen können, ohne Besucher auf unsere Seite zu bringen, bedroht das unsere Möglichkeit, unsere Arbeit zu monetarisieren. Dieses Anliegen betrifft nicht nur Medienunternehmen, sondern jeden Inhaltsanbieter.
Jedes Unternehmen, das KI-Modelle einsetzt, die auf Webdaten trainiert wurden, könnte potenziell rechtlichen Herausforderungen begegnen. Firmen müssen die Herkunft der Daten verstehen, die zum Training der KI-Modelle verwendet werden, die sie einführen. Dies ist auch entscheidend für Finanz- und Bankunternehmen, die strengen Vorschriften zu Datenschutz und Nutzung persönlicher Daten gegenüberstehen.
Einige Unternehmen ergreifen proaktive Maßnahmen, um diesen Bedenken zu begegnen. Auf der Trainingsseite ist OpenAI dabei, Verträge mit Verlagen und anderen Unternehmen abzuschließen. Berichten zufolge hat Apple Vereinbarungen mit Nachrichtenanbietern getroffen, um deren Inhalte für das KI-Training zu nutzen. Das könnte einen Präzedenzfall dafür schaffen, wie KI-Unternehmen und Inhaltsanbieter in Zukunft zusammenarbeiten.
Auf der VB Transform werden wir diese rechtlichen Komplexitäten im Detail untersuchen. Aravind Srinivas, CEO von Perplexity AI, wird Einblicke in die Bewältigung dieser Herausforderungen geben. Wir werden auch von Unternehmensleitern hören, wie sie diese Themen in ihren KI-Strategien angehen.
5. GenAI-Anwendungen: Transformation der Ränder, nicht der Kerne
Stören GenAI-Anwendungen die Kernangebote der meisten Unternehmen?
Unsere Antwort: Nein, noch nicht.
Warum das wichtig ist: Während KI transformativ ist, ist ihre Wirkung derzeit ausgeprägter in der Verbesserung bestehender Prozesse als in der Revolutionierung von Geschäftsmodellen.
Die Erzählung rund um KI lässt oft auf eine bevorstehende, umfassende Störung der Unternehmensabläufe schließen. Die Realität vor Ort erzählt jedoch eine andere Geschichte. Die meisten Unternehmen erzielen Erfolge, indem sie KI auf periphere Funktionen anwenden, anstatt ihre Kernangebote vollständig zu überarbeiten.
Häufige Anwendungen beinhalten:
- Kundenservice-Chatbots
- Wissensdatenbank-Assistenten für Mitarbeiter
- Generative Marketingmaterialien
- Code-Generierung und Debugging-Tools
Diese Anwendungen bringen signifikante Produktivitätsgewinne und Betriebseffizienzen. Sie führen jedoch noch nicht zu den massiven Einnahmesteigerungen oder Geschäftsmodelländerungen, die manche vorhergesagt hatten.
Führungskräfte von Einzelhandelsunternehmen wie Albertsons und AB InBev berichteten mir, dass sie eifrig nach Wegen suchen, um ihre Kernfunktionen zu beeinflussen, indem sie mit „großen Anwendungsmodellen“ experimentieren, um Kaufmuster der Kunden vorherzusagen. In der Pharmaindustrie besteht die Hoffnung, dass KI die Arzneimittelforschung beschleunigen könnte, obwohl Fortschritte langsamer sind, als viele denken.
Intuit bietet auch in diesem Bereich eine interessante Fallstudie. Das Unternehmen, das auf Steuer- und Geschäftscodierungen und Begriffe basiert, ist näher an den leistungsstarken Sprachfunktionen, die LLMs bieten, was erklärt, warum Intuit schnell Vorreiter wurde und vor einem Jahr sein eigenes Generative AI Operating System (GenOS) ankündigte, das KI-Assistenten in Produkte wie TurboTax, QuickBooks und Mailchimp integriert. Dennoch konzentriert sich die Anwendung von KI auch hier auf hilfsorientierte Funktionen, ähnlich wie es alle anderen tun.
Die Perspektive von Apple ist aufschlussreich. Sie sehen in KI eine Funktion, nicht ein Produkt – zumindest derzeit. Diese Haltung spiegelt den jetzigen Stand von KI in vielen Unternehmen wider: ein mächtiges Werkzeug zur Verbesserung, nicht eine eigenständige Revolution.
Caroline Arnold, Executive Vice President von StateStreet, einer großen Bank mit Sitz in Boston, exemplifiziert diese Sichtweise, dass generative KI vor allem Produktivitätsgewinne verspricht, aber keinen Kernumsatztreiber darstellt. Bei unserer Veranstaltung in Boston im März betonte sie das Potenzial von KI: „Was GenAI Ihnen ermöglicht, ist, auf sehr natürliche Weise mit großen Datenmengen in Echtzeit zu interagieren und Szenarien zu erstellen… auf eine Weise, die in einer traditionellen Vorgehensweise viel mehr Zeit in Anspruch nehmen würde.“
Obwohl der neue, mit LLM ausgestattete Chatbot der Bank schnell besser abschnitt als der bestehende Helpdesk, war er nicht ohne Herausforderungen. Der Chatbot gab gelegentlich „seltsame Antworten“, die eine Feinabstimmung erforderlich machten. Vier Monate später hat State Street es noch nicht geschafft, seine Apps öffentlich zu machen, was die Komplexität der Adaption generativer KI in Unternehmen, selbst an den Randbereichen, unterstreicht.
Auf der VB Transform werden wir diese nuancierte Realität mit Rednern wie Nhung Ho, VP für KI bei Intuit, und Bill Braun, CIO von Chevron, Daniel Yang, VP für KI bei Kaiser Permanente, Desirée Gosby, VP von Walmart, und Christian Mitchell, EVP von Northwestern erkunden. Sie werden Einblicke teilen, wie sie KI in ihre Abläufe integrieren und wo sie die signifikantesten Auswirkungen sehen.
6. KI-Agenten: Die nächste Grenze oder übertriebener Hype?
Werden KI-Agenten die Zukunft von KI sein?
Unsere Antwort: Ja, aber mit Vorbehalten.
Warum das wichtig ist? KI-Agenten repräsentieren einen potenziellen Fortschritt in der Automatisierung und Entscheidungsfindung, aber ihre aktuellen Fähigkeiten werden oft überschätzt.
Das Konzept von KI-Agenten – autonome Systeme, die Aufgaben erledigen oder Entscheidungen mit minimaler menschlicher Intervention treffen können – hat die Vorstellung vieler im Tech-Bereich gefangen. Einige, wie der ehemalige OpenAI-Mitarbeiter Leopold Aschenbrenner, stellen sich eine nicht allzu ferne Zukunft vor, in der Hunderte Millionen AGI-intelligente KI-Agenten verschiedene Aspekte unserer Welt steuern. Dies würde in kürzester Zeit ein Jahrzehnt algorithmischen Fortschritts komprimieren: „Wir würden rasch von menschenähnlicher zu weit übermenschlicher KI übergehen“, argumentiert er.
Allerdings glauben die meisten Menschen, mit denen ich gesprochen habe, dass dies eine Fantasie ist. Der aktuelle Stand der KI-Agenten ist in der Tat viel bescheidener, als die Enthusiasten im Silicon Valley sogar nur vor einem Jahr angenommen hätten, als die Begeisterung um Auto-GPT, ein Agenten-Framework, das angeblich alles möglich machen würde, einschließlich der Gründung eines eigenen Unternehmens, explodierte. Während es vielversprechende Anwendungsfälle in Bereichen wie Kundenservice und Marketingautomatisierung gibt, befinden sich vollständig autonome KI-Agenten noch in den Kinderschuhen und stehen vor vielen Herausforderungen, um ihre Aufgaben effektiv zu bewältigen.
Weitere aufkommende Anwendungen von KI-Agenten sind:
- Reiseplanung und -buchung
- E-Commerce-Produktsuchen und Käufe
- Automatisierte Programmierassistenten
- Handelsalgorithmen
Diese Agenten verwenden häufig ein führendes LLM, um den Prozess zu orchestrieren, während Unteragenten spezifische Aufgaben wie Websuchen oder Zahlungen übernehmen. Dennoch sind sie weit entfernt von den allgemein einsetzbaren, vollständig autonomen Systemen, die sich manche vorstellen.
Intuits Ansatz zu KI-Agenten ist aufschlussreich. Nhung Ho erklärte, dass Intuit zwar eine Infrastruktur zur Unterstützung agentenbasierter Frameworks aufgebaut hat, aber weitere Investitionen in diesem Bereich pausiert hat. Intuit wartet darauf, dass die Technologie reift, bevor sie vollständig in ihre Produkte integriert wird.
Dieser vorsichtige Ansatz spiegelt das breitere Sentiment der Branche wider. Während KI-Agenten vielversprechend sind, sind sie für eine umfassende Unternehmensadoption in entscheidenden Rollen noch nicht zuverlässig oder vielseitig genug.
Auf der VB Transform werden wir den aktuellen Stand und das zukünftige Potenzial von KI-Agenten erkunden. Redner wie Itamar Friedman, CEO von Codium AI, das einen autonomen Programmieragenten entwickelt, und Jerry Liu, CEO von LlamaIndex, werden ihre Einsichten zu dieser aufkommenden Technologie teilen.
Fazit: Die KI-Landschaft 2024 und darüber hinaus navigieren
Während wir die sechs entscheidenden KI-Debatten, die die Unternehmensstrategie 2024 prägen, erkundet haben, wird ein klares Thema deutlich: der Übergang vom Hype zur praktischen Umsetzung. Die wichtigsten Erkenntnisse für Unternehmensleiter:
- Das LLM-Rennen hat ein Plateau erreicht: Konzentrieren Sie sich darauf, Modelle basierend auf spezifischen Anwendungsfällen, Kosten-Effizienz und Integrationsfähigkeit auszuwählen, anstatt dem „besten“ Modell nachzujagen.
- Der AGI-Hype kühlt sich ab, praktische KI wird wichtiger: Der unmittelbare Fokus sollte darauf liegen, bestehende KI-Fähigkeiten für greifbare Geschäftsergebnisse zu nutzen.
- Infrastrukturherausforderungen erfordern kreative Lösungen: Erkunden Sie alternative Hardwarelösungen und optimieren Sie KI-Workflows, um die Effizienz auf vorhandener Hardware zu maximieren.
- Rechtliche und ethische Überlegungen sind von größter Bedeutung: Prüfen Sie KI-Anbieter sorgfältig und verstehen Sie die Herkunft der Daten, die zum Training ihrer KI-Modelle verwendet werden, um rechtliche Risiken zu mindern.
- Fokus auf die Verbesserung der Kernfunktionen, nicht auf deren Ersetzung: Suchen Sie nach Möglichkeiten, KI in den Kundenservice, die Unterstützung von Mitarbeitern und die Verbesserung der Betriebseffizienz zu integrieren.
- KI-Agenten zeigen Potenzial, sind aber noch nicht bereit für den großen Einsatz: Bauen Sie die Infrastruktur zur Unterstützung agentenbasierter Frameworks auf, seien Sie jedoch bereit, auf eine Reifung der Technologie zu warten, bevor Sie sie vollständig implementieren.
Die wahre KI-Revolution findet nicht in Forschungslaboren statt, die AGI anstreben, sondern in Büros weltweit, wo KI in den Arbeitsalltag integriert wird. Wie Steve Jones von Capgemini sagte: „KI ist mehr eine organisatorische Veränderung als eine technologische Veränderung.“
Während wir uns auf die VB Transform und die zweite Jahreshälfte zubewegen, denken Sie daran, dass die wertvollste KI-Implementierung vielleicht keine Schlagzeilen machen wird. Es könnte die sein, die Ihrem Kundenserviceteam täglich einige Stunden spart oder Ihren Entwicklern hilft, Fehler schneller zu finden. Die Frage ist nicht mehr „Wird KI alles verändern?“, sondern „Wie können wir KI nutzen, um besser zu arbeiten?“. Das wird die AI-Leader von den Nachzüglern in den kommenden Jahren unterscheiden.
Und das ist der Dialog, von dem ich glaube, dass er auf der VB Transform dominieren wird.