Ampere erweitert CPU auf 256 Kerne und kooperiert mit Qualcomm für fortschrittliche Cloud-KI-Lösungen.

Ampere Computing erweitert CPU-Familie und fokussiert sich auf KI-Effizienz

Ampere Computing hat angekündigt, dass die AmpereOne-Chipfamilie bis nächstes Jahr auf 256 Kerne erweitert wird. Das Unternehmen arbeitet auch mit Qualcomm zusammen, um Cloud-KI-Beschleuniger zu entwickeln.

Laut Jeff Wittich, Chief Product Officer, wird die neue zentrale Verarbeitungseinheit (CPU) 40% mehr Leistung bieten als alle derzeit verfügbaren CPUs.

Zusammenarbeit mit Qualcomm

Das in Santa Clara, Kalifornien, ansässige Unternehmen Ampere wird mit Qualcomm Technologies kooperieren, um eine Lösung für KI-Inferenz zu schaffen, indem es die leistungsstarken, energieeffizienten Cloud AI 100-Inferenzlösungen von Qualcomm mit Ampere CPUs kombiniert.

Ampere-CEO Renee James betonte die dringenden Energieherausforderungen, die durch Fortschritte in der KI entstehen. „Wir haben vor sechs Jahren diesen Weg eingeschlagen, weil wir seine Bedeutung erkannt haben“, sagte James. „Geringer Stromverbrauch bedeutet nicht mehr automatisch geringe Leistung. Ampere hat die Effizienzgrenze des Rechnens neu definiert und bietet herausragende Leistung in einem effizienten Rahmen.“

Effizienz von Rechenzentren

Der Energieverbrauch von Rechenzentren ist ein wachsendes Problem. James stellte fest, dass der schnelle Übergang zur Künstlichen Intelligenz die Energieherausforderungen der Branche verstärkt hat. „Der derzeitige Kurs ist nicht nachhaltig. Zukünftige Rechenzentrumsinfrastrukturen müssen bestehende luftgekühlte Systeme nachrüsten und umweltfreundliche neue Anlagen bauen, die mit der Verfügbarkeit von Netzstrom kompatibel sind“, erklärte sie.

Wittich unterstützte diese Sichtweise und bemerkte, dass der Bedarf an einer neuen CPU durch den steigenden Energieverbrauch in Rechenzentren, insbesondere durch KI, bedingt ist. „Es ist entscheidend, dass wir Lösungen entwickeln, die die Effizienz in der allgemeinen Rechnerarchitektur und der KI verbessern“, fügte Wittich hinzu.

Ampere's Vision für KI-Computing

Ampere verfolgt einen umfassenden Ansatz, der als „AI Compute“ bezeichnet wird und sowohl cloud-native Funktionen als auch KI-Implementierungen umfasst. „Unsere CPUs unterstützen eine Vielzahl von Workloads, von beliebten cloud-nativen Anwendungen bis hin zu KI, und integrieren KI in traditionelle Anwendungen wie Datenverarbeitung und Medienbereitstellung“, erklärte Wittich.

Zukünftige Roadmap

Ampere hat einen ehrgeizigen Fahrplan für seine Rechenzentrums-CPUs festgelegt. Zu den kommenden Entwicklungen gehört die 12-Kanal-256-Kern-CPU, die mit TSMC N3-Technologie hergestellt wird. Die bereits angekündigte 192-Kern-CPU befindet sich bereits in Produktion und ist auf dem Markt erhältlich.

Ampere und Qualcomm arbeiten zusammen, um ihre gemeinsame Lösung mit Ampere-CPUs und Qualcomm Cloud AI 100 Ultra zu verbessern, die auf die Inferenz großer Sprachmodelle (LLM) in der generativen KI abzielt.

Wittich beschrieb die Partnerschaft als Engagement, hochgradig effiziente CPUs für KI-Anwendungen zu entwickeln. „Diese Lösung wird die Kundenakzeptanz erleichtern und innovative Möglichkeiten für die KI-Inferenz bieten“, bemerkte er.

Leistungsverbesserungen

Mit der Erweiterung der 12-Kanal-Plattform um die neue 256-Kern-AmpereOne-CPU können Nutzer signifikante Leistungssteigerungen ohne komplizierte Designs erwarten. Das bestehende 192-Kern-Modell bleibt auf Kurs für den späteren Start in diesem Jahr und zeigt eine Entwicklung von acht auf zwölf Speicherkanäle.

Bemerkenswerterweise kommt die CPU-Technologie von Ampere bereits bei Metas Llama 3 in Oracle Cloud zum Einsatz. Llama 3 läuft auf der 128-Kern-Ampere Altra CPU ohne GPU und erreicht eine Leistung, die mit einer Kombination aus Nvidia A10 GPU und x86 CPU vergleichbar ist, während nur ein Drittel der Stromverbrauch benötigt wird.

UCIe-Arbeitsgruppe und Wettbewerbsvorteil

Kürzlich hat Ampere eine UCIe-Arbeitsgruppe im Rahmen der AI Platform Alliance gegründet, um die Flexibilität seiner CPUs zu verbessern, sodass die Integration von Kunden-IP in künftigen Designs ermöglicht wird.

Ampere konkurriert direkt mit AMD und hebt seine Leistungsvorteile hervor. AmpereOne-CPUs führen bei der Leistung pro Watt und übertreffen AMDs Genoa um 50% und Bergamo um 15%. Für Rechenzentren, die ihre Infrastruktur aufrüsten möchten, kann AmpereOne 34% mehr Leistung pro Rack liefern.

Die neuen AmpereOne OEM- und ODM-Plattformen werden in den kommenden Monaten ausgeliefert.

Darüber hinaus hat Ampere mit NETINT zusammengearbeitet, um eine Lösung zu entwickeln, die die gleichzeitige Transcodierung von 360 Live-Kanälen und die Echtzeit-Untertitelung für 40 Streams mithilfe von OpenAI’s Whisper-Modell ermöglicht.

Ampere strebt an, die Grundlage des Rechnens in der KI-Ära zu sein. Zu den jüngsten Verbesserungen gehören Funktionen wie Memory Tagging, QOS Enforcement und Mesh Congestion Management, die in die Einführung des FlexSKU-Features münden, das es Kunden ermöglicht, dasselbe SKU sowohl für Scale-Out- als auch für Scale-Up-Anwendungsfälle zu nutzen.

Durch die Zusammenarbeit mit Oracle hat Ampere die Betriebskosten um 28% gesenkt und benötigt dabei nur ein Drittel der Energie, die konkurrierende Nvidia-Lösungen benötigen. Dieser Ansatz ermöglicht es Nutzern, mit 15% weniger Servern, 33% weniger Rackplatz und 35% reduziertem Stromverbrauch zu arbeiten, was mit Ampere’s Engagement für Effizienz und Leistung im KI-Computing übereinstimmt.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles