Ist Größer Immer Besser für Große Sprachmodelle (LLMs)?
Yasmeen Ahmad, Geschäftsführerin für Strategie und Produktmanagement im Bereich Daten, Analytik und KI bei Google Cloud, teilte kürzlich ihre Einsichten zu diesem Thema auf der VB Transform. Ihre überraschend einfache Antwort? „Ja und nein.“
Obwohl größere LLMs tendenziell besser abschneiden, ist dies nicht unbegrenzt der Fall. Ahmad betonte, dass kleinere Modelle, die auf domänenspezifischen Daten trainiert sind, ihre größeren Pendants übertreffen können. „Daten stehen im Mittelpunkt“, bemerkte sie und hob hervor, wie branchenspezifische Informationen die Modelle stärken.
Dieser Ansatz fördert Kreativität, Effizienz und Inklusivität innerhalb von Unternehmen. Durch den Einsatz zuvor unzugänglicher Daten können Organisationen ihre Mitarbeiter auf innovative Weise einbinden.
„Generative KI erweitert die Möglichkeiten dessen, was Maschinen erschaffen können“, sagte Ahmad. „Sie verwischt die Grenze zwischen Technologie und Magie und könnte potenziell redefinieren, was wir als Magie betrachten.“
Der Bedarf an einer Neuen KI-Grundlage
Ein effektives Training von LLMs im Unternehmenskontext erfordert zwei wesentliche Techniken: Feinabstimmung und Retrieval-augmentierte Generierung (RAG). Feinabstimmung hilft LLMs, „die Sprache Ihres Geschäfts“ zu verstehen, während RAG das Modell mit Echtzeitdaten aus verschiedenen Quellen, wie Dokumenten und Datenbanken, verbindet.
„Dies ermöglicht präzise Antworten, die für Finanzanalysen, Risikobewertungen und mehr entscheidend sind“, erklärte Ahmad.
Die wahre Stärke von LLMs liegt in ihren multimodalen Fähigkeiten, die es ihnen ermöglichen, unterschiedliche Datentypen wie Videos, Texte und Bilder zu verarbeiten. Da 80 bis 90% der Unternehmensdaten multimodal sind, betonte Ahmad die Wichtigkeit, LLMs effektiv zu nutzen, um diese Informationen zu erschließen.
Eine Google-Studie zeigte, dass die Verwendung multimodaler Daten die Kundenerfahrung um 20 bis 30% verbesserte und es Unternehmen ermöglichte, die Kundenstimmung zu erfassen und die Produktleistung im Vergleich zu Marktentwicklungen zu analysieren.
„Es geht nicht nur mehr ums Mustererkennen“, stellte Ahmad fest. „LLMs können die Komplexitäten unserer Organisationen verstehen, indem sie auf alle verfügbaren Daten zugreifen.“
Traditionelle Unternehmen stehen vor Herausforderungen mit veralteten Dateninfrastrukturen, die Schwierigkeiten haben, multimodale Informationen zu verarbeiten. Die Zukunft der KI erfordert eine neue Grundlage, die für diese Komplexität ausgelegt ist.
Konversationale KI: Die Rolle der Interaktion
Ahmad betonte auch die Bedeutung von Frage-Antwort-Interaktionen in erfolgreichen LLMs. Obwohl es verführerisch scheint, mit Unternehmensdaten zu chatten, birgt es Herausforderungen.
Wenn man beispielsweise einen Kollegen nach der Umsatzprognose für das nächste Quartal fragt, ohne Kontext zu bieten, können die Antworten vage sein. Das gilt ebenso für LLMs, die semantischen Kontext und Metadaten benötigen, um präzise Antworten zu liefern.
Menschliche Analysen beinhalten oft einen Dialog, um Fragen zu verfeinern und Klarheit zu gewinnen. Ebenso müssen LLMs kohärente Gespräche fördern und sich von isolierten, einmaligen Interaktionen zur „nächsten Generation von konversationaler KI“ weiterentwickeln.
„Denken Sie an es als einen persönlichen Datenassistenten“, schlug sie vor. Dieser unermüdliche Mitarbeiter kann an durchdachten Gesprächen teilnehmen und Transparenz bei Anfragen ermöglichen, sodass Benutzer den Ergebnissen vertrauen können.
Ahmad sprach von der Entstehung von „agentischer KI“ – Systeme, die Entscheidungen treffen und Ziele verfolgen können. Diese Modelle emulieren menschliche Denkprozesse, indem sie Aufgaben in Unteraufgaben zerlegen und strategisches Denken entwickeln.
Mit Fortschritten in Echtzeitfähigkeiten geschehen diese Entwicklungen in einem noch nie dagewesenen Tempo. „Die Zukunft ist hier, und sie gibt neuen Geschäftsmodellen Raum“, schloss Ahmad. „Wir stehen erst am Anfang dessen, was diese Technologie ermöglichen kann.“