Intel hat kürzlich im Rahmen der Veranstaltung Vision 2024 in Phoenix, Arizona, seine Vision für Enterprise-AI präsentiert. Im Mittelpunkt stehen ein offenes AI-Ökosystem und die Einführung der neuen Xeon 6 Datenzentrum-Prozessoren.
In seiner Hauptrede betonte CEO Pat Gelsinger Intels Engagement für die Schaffung einer sicheren und offenen Landschaft für Enterprise-AI. Das in Santa Clara, Kalifornien, ansässige Unternehmen stellte zudem seine wachsende Liste von Kunden und Partnern in den Bereichen AI-Software und -Hardware vor.
Gemeinsam mit Industriepartnern möchte Intel eine offene Plattform für Enterprise-AI etablieren, die die Einführung sicherer generativer AI (GenAI)-Systeme, unterstützt durch retrieval-augmented generation (RAG), fördert. Die skalierbare Systemstrategie von Intel zielt darauf ab, alle AI-Segmente innerhalb von Unternehmen abzudecken und markiert einen klaren Wechsel von der Dominanz im PC-Markt der 1990er Jahre. Angesichts der Vorreiterrolle von Nvidia in der AI-Chip-Technologie positioniert sich Intel als wettbewerbsfähige, offene Alternative.
Gelsinger erklärte, dass Intel bis Ende des Jahrzehnts die zweitgrößte Chipfertigungsanlage werden wolle. Diese Ambition wird durch erhebliche Investitionen unterstützt, darunter ein Zuschuss von 8,5 Milliarden Dollar vom US-Handelsministerium, der die AI-Revolution vorantreiben soll – Gelsinger bezeichnet dies als den bedeutendsten technologischen Fortschritt seit dem Internet.
„Intel hat sich zum Ziel gesetzt, AI überall einzuführen“, versicherte Gelsinger. Das Unternehmen hat bereits fünf Millionen AI-Chips für PCs ausgeliefert und plant, bis Ende des Jahres insgesamt 40 Millionen Chips zu erreichen.
Die neuen Xeon 6 Prozessoren für Datenzentren, Cloud- und Edge-Anwendungen wurden ebenfalls vorgestellt. Diese Prozessoren bieten mit Efficient-cores (E-cores) eine Leistungsverbesserung von 2,4 Mal pro Watt im Vergleich zu vorherigen Modellen. Gleichzeitig steigern Performance-cores (P-cores) die AI-Performance erheblich.
Katti erklärte, dass Intel Offenheit über alle Systemebenen priorisiert, indem er versicherte: „Unsere CPUs und Acceleratoren werden nahtlos über offene Ethernet-basierte Netzwerkstandards integriert.” Dieser robuste Ansatz erstreckt sich auch auf Intels Softwareangebote, wobei oneAPI und oneDNN offene Frameworks unterstützen, um Hardwarebeschränkungen zu beseitigen.
Zu Intels bedeutendsten Projekten zählt der Gaudi 3 AI-Akkelerator, der darauf abzielt, Nvidias H100 AI-Computer mit einer um 50 % besseren Inferenz und einer um 40 % höheren Energieeffizienz zu übertreffen – und das zu einem niedrigeren Preis. Zu den Kunden des Gaudi 3 zählen namhafte Unternehmen wie Bosch, CtrlS und IFF, die eine schnellere Integration von GenAI in Unternehmen anstreben. Gelsinger bemerkte, dass im vergangenen Jahr nur 10 % der Unternehmen erfolgreiche GenAI-Implementierungen umsetzen konnten, was den Bedarf an effizienten Lösungen verdeutlicht.
„Jedes Unternehmen wird schnell zum AI-Unternehmen“, bemerkte Gelsinger. „Unsere Gaudi-, Xeon- und Core Ultra-Plattformen bieten flexible Lösungen, um den sich entwickelnden Kundenbedürfnissen gerecht zu werden.”
Intels Fahrplan umfasst Pläne für ein offenes und skalierbares AI-Ökosystem. Das Unternehmen setzt sich dafür ein, die Zusammenarbeit zwischen Hardwareherstellern, Softwareanbietern und Systemintegratoren zu fördern, um spezifische GenAI-Anforderungen der Unternehmen zu unterstützen.
Zudem kündigte Intel Partnerschaften mit Google Cloud, Thales und Cohesity an, um vertrauliche Computing-Dienste zu verbessern. Diese Kooperationen ermöglichen es Kunden, ihre AI-Modelle in vertrauenswürdigen Umgebungen auszuführen, wobei sie die Sicherheitsmerkmale von Intel wie Trust Domain Extensions (TDX) und Software Guard Extensions (SGX) nutzen können.
Insgesamt zielt Intels strategischer Ansatz auf ein offenes Enterprise-AI-Ökosystem ab, unterstützt durch fortschrittliche Hardware und eine kooperative Herangehensweise. Damit will das Unternehmen die Art und Weise revolutionieren, wie Unternehmen die Leistungsfähigkeit von AI nutzen.