IBM möchte KI die Sprache Ihres Unternehmens beibringen, um das Verständnis zu verbessern.

Auf der VB Transform 2024 betonte David Cox von IBM die Bedeutung von offener Innovation im Bereich der generativen KI für Unternehmen und hob das langjährige Engagement des Unternehmens für Open-Source-Technologien hervor. Als VP für KI-Modelle und Direktor des MIT-IBM Watson AI Lab präsentierte Cox eine Vision, die den Technologiesektor sowohl herausfordert als auch inspiriert.

„Offene Innovation ist wirklich die Geschichte des menschlichen Fortschritts“, erklärte Cox und verdeutlichte, dass dieses Konzept entscheidend für technologische Weiterentwicklung ist. Er betonte die Wichtigkeit des aktuellen Moments in der KI-Entwicklung: „Wir müssen Entscheidungen treffen, wo wir investieren und wie wir Lock-in vermeiden.“

Cox stellte die einfache binäre Wahrnehmung von Offenheit in der KI in Frage und sagte: „Offenheit ist nicht nur eine Sache. Sie umfasst viele Bedeutungen.“ Er wies auf das aufkommende Ökosystem offener Modelle aus verschiedenen Quellen hin, darunter Technologiegiganten, Universitäten und sogar Regierungen.

Dennoch äußerte er Bedenken hinsichtlich der Qualität der Offenheit vieler großer Sprachmodelle (LLMs). „In einigen Fällen wird Ihnen nur ein Zahlensammelsurium präsentiert, sodass Sie nicht wissen, wie es produziert wurde“, warnte er. Diese mangelnde Transparenz erschwere die Reproduzierbarkeit und untergrabe essentielle Open-Source-Prinzipien.

Cox zog Parallelen zur traditionellen Open-Source-Software und hob Merkmale hervor, die zu ihrem Erfolg beigetragen haben: regelmäßige Updates, strukturierte Veröffentlichungszyklen, Sicherheitsupdates und aktive Beiträge der Community. „Alles ist gut definiert, was inkrementelle Beiträge sowohl von Unternehmen als auch aus der breiteren Community ermöglicht“, betonte er.

Er kritisierte den aktuellen Zustand offener LLMs und stellte fest: „Trotz ihrer beeindruckenden Leistungen fehlen ihnen oft wesentliche Open-Source-Attribute.“ Cox wies auf die inkonsistenten Veröffentlichungspläne einiger Anbieter hin, bei denen Modelle manchmal nach ihrer ersten Einführung keine Updates erhalten. Diese Inkonsistenz, so Cox, untergräbt die wahre Essenz von Open Source und schränkt innovationsgetriebene Community-Initiativen in der KI ein.

Cox betonte IBMs Engagement für Transparenz mit der Granite-Serie offener KI-Modelle. „Wir legen alles über das Modell offen“, stellte er klar und hob hervor, dass sie den gesamten Verarbeitungscode offen gelegt haben, um Qualität und Filterung anstößiger Inhalte sicherzustellen.

Cox argumentierte, dass dieses Maß an Offenheit die Leistung nicht beeinträchtigt. Er präsentierte Benchmarks, die Granites Modelle als state-of-the-art ausweisen, und betonte: „Sie müssen Transparenz nicht zugunsten überlegener Leistung opfern.“

Er bot eine neue Perspektive auf LLMs und betrachtete sie als Datenrepräsentationen anstelle von bloßen Konversationswerkzeugen. Mit Schätzungen, die darauf hindeuten, dass LLMs bald nahezu alle öffentlich verfügbaren Daten umfassen werden, stellte Cox eine signifikante Lücke fest: Das proprietäre Wissen der Unternehmen bleibt weitgehend unrepräsentiert in diesen Modellen.

Um dem entgegenzuwirken, schlug er eine Mission vor, um Unternehmensdaten in Fundamentale Modelle zu integrieren und so ihr volles Potenzial auszuschöpfen. Während Techniken wie retrieval-augmented generation (RAG) existieren, argumentierte Cox, dass sie oft versäumen, einzigartiges Unternehmenswissen und proprietäre Informationen zu nutzen.

Cox skizzierte einen dreistufigen Ansatz für Unternehmen: ein vertrauenswürdiges offenes Basismodell identifizieren, eine neue Repräsentation von Geschäftsdaten erstellen und dann für die Wertschöpfung implementieren und skalieren. Er betonte die Notwendigkeit von Transparenz bei der Auswahl eines Basismodells, insbesondere in regulierten Branchen, und stellte fest, dass viele Modellanbieter ihre Daten nicht offenlegen.

Die Herausforderung besteht darin, proprietäre Daten effektiv mit dem Basismodell zu verbinden. Cox argumentierte, dass das gewählte Basismodell leistungsfähig, transparent und Open Source sein muss, um die erforderliche Kontrolle und Flexibilität für Unternehmen zu gewährleisten.

Um seine Vision zu verwirklichen, stellte Cox InstructLab vor, eine gemeinsame Initiative von IBM und Red Hat, die darauf abzielt, Unternehmenswissen in KI-Modelle zu integrieren. „InstructLab ermöglicht echte Open-Source-Beiträge für LLMs“, erläuterte er.

Das Projekt nutzt eine strukturierte Taxonomie von Weltwissen und Fähigkeiten, die es den Nutzern ermöglicht, die Modellleistung gezielt zu verbessern. Dieser strukturierte Ansatz erleichtert die Integration von unternehmensspezifischen Erkenntnissen und senkt die Hürden für Fachexperten, um Modelle anzupassen.

InstructLab verwendet ein „Lehrermodell“, um synthetische Trainingsdaten zu generieren, wobei proprietäre Daten nahtlos mit Basismodellen kombiniert werden, ohne die Leistung zu beeinträchtigen. Besonders bemerkenswert ist die Beschleunigung des Modellaktualisierungszyklus auf nur einen Tag, im Vergleich zu den traditionellen, langen Veröffentlichungszyklen.

Cox’ Erkenntnisse und IBMs InstructLab signalisieren einen Wandel in der KI-Adoption durch Unternehmen, der von generischen Modellen zu maßgeschneiderten Lösungen übergeht, die die einzigartige Expertise jedes Unternehmens widerspiegeln. Mit dem technologischen Fortschritt könnte der Wettbewerbsvorteil darin bestehen, institutionelles Wissen effektiv in KI-gesteuerte Erkenntnisse zu verwandeln. Das nächste Kapitel der KI handelt nicht nur von intelligenteren Maschinen; es geht um Maschinen, die das Geschäft so gut verstehen wie ihre Nutzer.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles