Der Zusammenhang zwischen den Denkfähigkeiten von KI und den Kosten für Rechenleistung
In einem aktuellen Podcast sprach der NVIDIA-CEO Jensen Huang mit dem ARM-CEO Rene Haas über die Zukunft der Künstlichen Intelligenz. Huang betonte, dass das Potenzial von KI in ihrer Fähigkeit liegt, „denkende“ Dienste anzubieten. Um dieses Ziel zu erreichen, sei jedoch eine deutliche Senkung der Kosten für Rechenleistung notwendig.
Er erklärte, dass KI-Tools der nächsten Generation auf Benutzeranfragen durch Hunderte oder Tausende von Schritten reagieren werden, was ihnen ermöglicht, ihre Schlussfolgerungen zu hinterfragen. Dieses Niveau an Denkfähigkeit wird zukünftige Software von bestehenden Systemen wie ChatGPT unterscheiden. Huang teilte mit, dass er persönlich ChatGPT täglich nutzt.
Huang hob das Engagement von NVIDIA hervor, die Chip-Leistung jedes Jahr um das Zwei- bis Dreifache zu steigern, während Kosten und Energieverbrauch stabil bleiben. Diese Transformation soll die Fähigkeiten von KI-Systemen in der Mustererkennung und beim Ziehen von Schlussfolgerungen erheblich verbessern. Er bemerkte: „Wir können die Kosten für das Erreichen von Intelligenz drastisch senken. Der Wert dieses Fortschritts ist deutlich; durch Kostenreduktionen können wir Durchbrüche im Bereich des Denkens ermöglichen.“
Laut dem neuesten Bericht von Jon Peddie Research wird die weltweite Lieferung von AIB-Grafikkarten bis zum zweiten Quartal 2024 voraussichtlich 9,5 Millionen Einheiten erreichen, was einem Anstieg um 9,4 % im Vergleich zum Vorquartal und einem Wachstum von 47,9 % im Jahresvergleich entspricht. NVIDIA bleibt mit einem beeindruckenden Marktanteil von 88 % dominant.