Laptops: Ein Gleichgewicht für die KI-Entwicklung schaffen, doch die Ergebnisse bleiben aus

Die führenden Laptops und Marken auf dem Markt nehmen die KI-Technologie vollständig an. Im Vergleich zu vor nur einem Jahr ist das Angebot an Top-Laptops nun reich an Neural Processing Units (NPUs) und einer neuen Generation von Prozessoren, die alle darauf ausgelegt sind, KI in unseren Alltag zu integrieren. Trotz mehrjähriger Entwicklungen in diesem Bereich sind greifbare Fortschritte jedoch nach wie vor begrenzt.

Qualcomm hat seine mit Spannung erwarteten Snapdragon X Elite-Chips in Copilot+-Laptops vorgestellt, während AMD seine Ryzen AI 300-Prozessoren eingeführt hat. Auch Intels kommende Lunar Lake-CPUs werden Teil dieser Entwicklung sein. Bei der Betrachtung dieser Prozessoren wird deutlich, dass ihr Design eher auf aktuelle Bedürfnisse als auf eine vollständig realisierte KI-Zukunft ausgerichtet ist—leider ist es oft nicht möglich, beides zu erreichen.

Ein kritischer, aber oft übersehener Faktor im Chipdesign ist die räumliche Effizienz. Während Hardware-Enthusiasten sich dessen Bedeutung bewusst sind, ziehen viele Verbraucher dies nicht in Betracht. Unternehmen wie AMD und Intel sind in der Lage, große Chips mit robuster Rechenleistung zu entwickeln, tun dies jedoch in der Regel nicht. Die Essenz des Chipdesigns dreht sich oft darum, die Leistung innerhalb eines begrenzten Raums zu maximieren.

Dies zu verstehen, ist entscheidend, denn die Integration zusätzlicher Hardware auf einem Chip ist nicht ohne Nachteile; sie verdrängt bestehende Komponenten. Ein Beispiel ist die Ryzen AI 300-CPU, bei der man auf einem Die Shot sieht, dass die XDNA NPU erheblichen Platz einnimmt—etwa 14mm². Obwohl sie die kleinste der drei Prozessoren auf dem Chip ist, beansprucht sie dennoch wertvollen Raum, den AMD möglicherweise anderweitig für zusätzliche Kerne oder einen größeren L3 Infinity Cache für die GPU hätte nutzen können.

Dies ist keine Kritik an AMD oder der Behauptung, dass Ryzen AI 300-CPUs unterdurchschnittliche Leistungen erbringen; ganz im Gegenteil, sie liefern solide Ergebnisse, wie unsere Bewertung des Asus Zenbook S 16 zeigt. Alle Hersteller, einschließlich AMD, Intel und Qualcomm, müssen während des Designprozesses Kompromisse eingehen, um alles auf den Chip zu bekommen. Die Anpassung eines Parameters hat unweigerlich Auswirkungen auf viele andere, was einen komplexen Balanceakt erzeugt.

Die Hinzufügung einer NPU bringt jedoch Herausforderungen mit sich; Designer können sie nicht einbauen, ohne in anderen Bereichen Abstriche zu machen. Derzeit leistungsfähige NPUs sind rar. Selbst Anwendungen, die durch KI verbessert werden, ziehen die Fähigkeiten integrierter GPUs vor, und wenn diskrete GPUs zur Verfügung stehen, übertreffen sie NPUs in Bezug auf Geschwindigkeit bei weitem. Obwohl es Nischenszenarien für NPUs gibt, verbessern diese Einheiten für die meisten Nutzer hauptsächlich die Hintergrundeffekte.

Die Ryzen AI 300 dient als unser aktueller Referenzpunkt, jedoch werden die kommenden Lunar Lake-Prozessoren von Intel ähnlichen Einschränkungen gegenüberstehen. Sowohl AMD als auch Intel streben die Unterstützung von Microsoft für Copilot+- PCs an und integrieren NPUs, die Microsofts scheinbar willkürlichen Standards entsprechen. Vor dem Copilot+-Projekt implementierten AMD und Intel bereits KI-Co-Prozessoren, doch diese Komponenten sind im Vergleich zu neuen, strengen Anforderungen relativ obsolet geworden.

Es ist ungewiss, ob AMD und Intel ihre Designs ohne die Copilot+-Initiative anders angegangen wären. Derzeit scheinen Ryzen AI 300 und bald auch Lunar Lake Siliziumkomponenten zu integrieren, die an substantieller Funktionalität mangeln. Dies erinnert an Intels frühere Bemühungen mit Meteor Lake, die nun von den Erwartungen an Copilot+ überschattet werden.

Sowohl AMD als auch Intel haben sich verpflichtet, sich letztendlich an Copilot+ anzupassen. Derzeit hat nur Qualcomm mit seinem Snapdragon X Elite die Zustimmung von Microsoft erhalten, doch AMD behauptet, sein Chip werde noch vor Jahresende Zugang zu Copilot+-Funktionen erlangen. Dies wirft jedoch ein weiteres Problem auf—die verfügbaren Copilot+-Funktionen sind begrenzt.

Seit Microsoft Copilot+ vorgestellt hat, ist die Schlüssel-Funktion Recall, aber bisher hatten nur ausgewählte Nutzer Zugang. Microsoft verschob die Einführung und beschränkte sie auf Windows Insiders, was letztendlich zu einer unbestimmten Verzögerung vor der Einführung der Copilot+-PCs führte. Obwohl AMD und Intel möglicherweise bald in Copilot+ integriert werden, ist dies ohne zusätzliche lokale KI-Funktionen kaum von Bedeutung.

Die Auswirkungen von Microsofts Einfluss auf die PC-Branche werden zunehmend offensichtlich. Wir sehen einen Anstieg neuer Chips von Qualcomm, AMD und bald Intel, die alle Siliziumelemente enthalten, die derzeit nicht optimal genutzt werden. Das Tempo wirkt hastig und erinnert an die Einführung von Bing Chat, was Fragen zum Engagement von Microsoft für dieses Projekt aufwirft. Ironischerweise ist das Hauptverkaufsargument für Copilot+-PCs eine verbesserte Batterielaufzeit anstelle von KI-Funktionen.

In den kommenden Jahren wird prognostiziert, dass rund eine halbe Milliarde KI-fähige Laptops verkauft werden, was über die Hälfte aller PC-Lieferungen bis 2027 ausmachen wird. Der Vorstoß von Microsoft und der breiteren PC-Industrie in die KI ist klar. Dennoch ist es schwer zu bestätigen, ob die heutigen Produkte, wie von Microsoft, Intel, AMD und Qualcomm angepriesen, wirklich notwendig sind.

Trotzdem bleibt es wichtig, die zugrunde liegenden Motivationen zu erforschen. Wir stehen vor einem klassischen Henne-und-Ei-Dilemma mit KI-PCs, das trotz der Einführung von Copilot+ und den Verzögerungen bei Recall bestehen bleibt. Intel, AMD und Qualcomm bemühen sich, eine Grundlage für KI-Anwendungen zu schaffen, die möglicherweise nahtlos in unsere PC-Erlebnisse integriert werden können, ähnlich wie Apple dies im Laufe der Jahre mit seinem Fokus auf Apple Intelligence erfolgreich getan hat.

Wir sind jedoch noch nicht an diesem Punkt. Wenn Sie sich entscheiden, in einen KI-PC zu investieren, seien Sie auf die Realitäten eines frühen Adopters vorbereitet. Es gibt nur wenige Anwendungen, die NPUs effektiv nutzen, und selbst jene, die lokale KI-Funktionen bieten, arbeiten oft besser auf GPUs. Darüber hinaus haben wir bereits einige Veränderungen in den Erwartungen an Copilot+ und die erste Welle von NPUs von AMD und Intel beobachtet.

Ich bin zuversichtlich, dass wir zu einem Punkt gelangen werden, an dem KI integraler Bestandteil von PCs wird—es gibt einfach zu viel Investitionen in diesem Bereich, damit es nicht Wirklichkeit wird. Dennoch bin ich gespannt, wann dies so essenziell wird, wie es uns versprochen wurde.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles