GPT-4o Erste Reaktionen: „Im Grunde AGI“ oder die nächste Evolution der KI?

OpenAI hat vor Kurzem sein neuestes Sprachmodell, GPT-4o (für Omni), vorgestellt, und die ersten Reaktionen strömen bereits ein. Zu diesem frühen Zeitpunkt ist das Feedback gemischt. Während einige Zuschauer von OpenAIs kurzer, 26-minütiger Demo mehr erwartet haben, hat das Unternehmen mittlerweile mehrere Video-Demonstrationen und zusätzliche Informationen veröffentlicht. GPT-4o soll schneller, für Entwickler kostengünstiger und wesentlich besser darin sein, menschliche Emotionen zu erkennen und nachzuahmen, insbesondere durch Audiofähigkeiten.

Das Modell ist für alle ChatGPT-Nutzer kostenlos, einschließlich Nicht-Abonnenten, wobei zahlende Abonnenten zuerst Zugriff erhalten, während das Rollout in den kommenden Wochen erfolgt. Derzeit unterstützt es Text- und Vision-Funktionen, während Audio- und Video-Fähigkeiten bald erwartet werden.

GPT-4o wurde entwickelt, um Text-, Audio- und visuelle Daten gleich zu behandeln, und konvertiert alle Formen in Token. Diese Innovation führt zu verbesserter Geschwindigkeit und reduzierten Kosten.

Hier sind einige Stimmen aus der Branche:

Jim Fan, Senior Research Manager bei Nvidia, bemerkte: "OpenAI frisst Character AIs Mittagessen… Dies ist eine Wendung hin zu emotionaler KI mit starker Persönlichkeit, die OpenAI in der Vergangenheit zu unterdrücken schien."

Ethan Mollick, Professor an der Wharton School of Business, stellte fest: "GPT-4o ist nicht der große Sprung. Das hier ist es."

Allie K. Miller, KI-Influencerin, zeigte sich begeistert von der neuen macOS ChatGPT-App, die mit GPT-4o betrieben wird: "Es ist im Grunde ein Kollege, der 24/7 mit Ihnen Bildschirm teilt, ohne Ermüdung. Ich kann mir vorstellen, dass Menschen stundenlang so arbeiten."

Benjamin De Kraker, KI-Entwickler, argumentierte, dass GPT-4o einen bedeutenden Fortschritt in Richtung künstlicher allgemeiner Intelligenz (AGI) darstellt: "Was sonst nennt man es, wenn ein virtueller 'Mensch' hören, sprechen, sehen und nahezu ununterscheidbar von einem durchschnittlichen Menschen wägen kann?"

Siqi Chen, ein weiterer Entwickler, hob die Fähigkeit von GPT-4o hervor, 3D-Objekte aus Text zu erzeugen und behauptete: "Im Nachhinein wird sich herausstellen, dass dies das bis jetzt am meisten unterschätzte OpenAI-Ereignis ist."

Im Gegensatz dazu kritisierte Journalist James Vincent die Marketingstrategie als "clever", wies jedoch darauf hin, dass Sprachinteraktion nicht unbedingt einen Sprung in den Fähigkeiten bedeutet.

Chirag Dekate, VP bei Gartner, fand die Enthüllung "ein wenig enttäuschend" und verglich sie mit den Gemini-Demos von Google aus den vergangenen Monaten. Er bemerkte eine wachsende "Fähigkeitsschere" zwischen OpenAI und etablierten Technologieriesen wie Google und Microsoft, die über umfangreiche Daten und Infrastruktur verfügen, um ihre Modelle zu unterstützen.

Einige Reaktionen waren schärfer; der anti-technologische Influencer "Artisanal Holdout" kritisierte den Veröffentlichungszeitraum von GPT-4o als enttäuschend im Vergleich zu den Erwartungen an GPT-5.

Im Gegensatz dazu stellte Greg Isenberg, CEO von Late Checkout, fest: "Das Tempo des Wandels ist unglaublich," während die KI-Pädagogin Min Choi die Veröffentlichung lobte und sagte, sie würde "das Spiel mit KI-Assistenten völlig verändern."

Mit GPT-4o, das sich noch in der Anfangsphase befindet und viele Funktionen noch nicht eingeführt wurden, hat es bereits leidenschaftliche Reaktionen hervorgerufen, was darauf hinweist, dass OpenAI ein erhebliches Interesse geweckt hat.

Bleiben Sie dran für unsere eigene Bewertung, wenn wir das neue Modell in den kommenden Tagen testen.

Most people like

Find AI tools in YBX