Der KI-Pionier Yann LeCun entfachte heute eine lebhafte Diskussion und riet der nächsten Generation von Entwicklern, sich von großen Sprachmodellen (LLMs) fernzuhalten. „Diese Arbeit wird von großen Unternehmen dominiert; es gibt wenig, was ihr beitragen könnt,“ erklärte LeCun auf der VivaTech in Paris. „Konzentriert euch stattdessen auf nächste-gen KI-Systeme, die die Begrenzungen von LLMs überwinden.“
LeCuns Kommentare, als Chefwissenschaftler für KI bei Meta und Professor an der NYU, führten schnell zu Fragen über die Schwächen aktueller LLMs. Auf Nachfrage auf X (ehemals Twitter) erklärte er weiter: „Ich entwickle KI-Systeme der nächsten Generation, keine LLMs. Im Grunde empfehle ich: ‚Konkuriert mit mir!‘ Je mehr Köpfe daran arbeiten, desto besser!“
Trotz seines Aufrufs suchten viele Nutzer Klarheit darüber, was „nächste-gen KI“ ausmacht und welche Alternativen zu LLMs bestehen könnten. Entwickler, Datenwissenschaftler und KI-Spezialisten teilten auf X eine Vielzahl von Ideen, darunter grenzgesteuerte KI, discriminative KI, Multitasking, Multimodalität, kategorisches Deep Learning, energiebasierte Modelle, zweckorientierte kleine Sprachmodelle, Nischenanwendungen, individuelles Fine-Tuning, Zustandsraum-Modelle und Hardware für verkörperte KI. Einige Nutzer empfahlen, Kolmogorov-Arnold-Netzwerke (KANs) zu erkunden, einen vielversprechenden Fortschritt im Bereich der neuronalen Netzwerke.
Ein Nutzer skizzierte fünf Systeme der nächsten Generation:
- Multimodale KI
- Denken und allgemeine Intelligenz
- Verkörperte KI und Robotik
- Unsupervised und selbstüberwachtes Lernen
- Künstliche Allgemeine Intelligenz (AGI)
Ein anderer riet, dass jeder Student die Grundlagen beherrschen solle, wie:
- Statistik und Wahrscheinlichkeit
- Datenaufbereitung und -transformation
- Klassische Mustererkennung (z. B. naive Bayes, Entscheidungsbäume, Random Forests)
- Künstliche neuronale Netzwerke
- Faltungsneuronale Netzwerke
- Rekurrente neuronale Netzwerke
- Generative KI
Im Gegensatz dazu argumentierten einige, dass die Zeit für Studierende ideal sei, sich mit LLMs zu befassen, da viele Anwendungen noch unerforscht sind. Es gibt noch viel über Prompting, Jailbreaking und Zugänglichkeit zu lernen.
Kritiker wiesen auch auf Metas umfangreiche LLM-Entwicklung hin und suggierten, dass LeCuns Aussagen darauf abzielen, den Wettbewerb zu ersticken. Ein Nutzer merkte an: „Wenn der Leiter der KI eines großen Unternehmens sagt, ‚nicht konkurrieren‘, macht es mich noch wettbewerbsfähiger.“
LeCun, ein Verfechter von zielgerichteter KI und Open-Source-Systemen, erklärte in einem Interview mit der Financial Times, dass LLMs logisches Denken vermissen lassen und niemals menschenähnliche Intelligenz erreichen werden. „Sie verstehen die physische Welt nicht, haben kein persistentes Gedächtnis, können nicht sinnvoll argumentieren und nicht hierarchisch planen,“ betonte er.
Meta stellte kürzlich seine Video Joint Embedding Predictive Architecture (V-JEPA) vor, die darauf abzielt, komplexe Objektinteraktionen zu erkennen und zu verstehen. Diese Innovation steht im Einklang mit LeCuns Vision für fortschrittliche Maschinenintelligenz (AMI).
Viele Branchenexperten teilen LeCuns Meinung über die Begrenzungen von LLMs. Die KI-Chat-App Faune bezeichnete seine Erkenntnisse als „großartig“ und hob hervor, wie stark geschlossene Systeme an Flexibilität verlieren. „Der Schöpfer einer KI, die lernen und sich anpassen kann wie ein Mensch, wird wahrscheinlich den Nobelpreis erhalten,“ erklärten sie.
Andere wiesen auf die „Überbetonung“ von LLMs in der Industrie hin und betrachteten sie als Sackgasse für wahre Fortschritte. Einige haben LLMs sogar als bloße Verbindungstools bezeichnet, die Systeme effizient verknüpfen, vergleichbar mit Telefonvermittlern.
LeCun ist nicht fremd gegenüber Kontroversen. Er hat intensive Debatten mit anderen KI-Pionieren wie Geoffrey Hinton, Andrew Ng und Yoshua Bengio über die existenziellen Risiken von KI geführt und argumentiert oft, dass diese Bedenken übertrieben seien.
Ein Kommentator erinnerte sich an ein kürzliches Interview mit Hinton, der einen All-in-Ansatz für LLMs propagierte und eine enge Korrelation zwischen menschlichen und KI-Gehirnen bestätigte. „Es ist faszinierend, einen so grundlegenden Dissens zu beobachten,“ bemerkte der Nutzer.
Dieser Konflikt der Perspektiven wird voraussichtlich nicht so schnell gelöst werden.