Hinter Apples Einsatz von Google-Hardware zur Schulung des Apple Intelligence Modells

Apple veröffentlicht technische Details zum KI-Modelltraining

Am 30. Juli veröffentlichten Apple technische Unterlagen, die den Vortrainingsprozess ihres KI-Systems, Apple Intelligence, erläutern und sich dabei auf zwei zentrale KI-Modelle konzentrieren. Das Papier mit dem Titel „Foundational Language Models for Apple Intelligence“ bietet umfassende Einblicke in den Aufbau der Modelle und deren Datenquellen.

Laut der Veröffentlichung wurde das Apple Foundational Model (AFM) zusammen mit der zugehörigen Servertechnologie ursprünglich auf Googles „v4 und v5p Cloud TPU-Clustern“ entwickelt, während die Software intern von Apple erstellt wurde. Obwohl es Spekulationen über eine Miete von Googles Cloud-Infrastruktur gibt, erwähnt das Dokument Google oder NVIDIA nicht direkt. Wahrscheinlicher ist, dass Apple Googles Hardware erworben und in eigenen Rechenzentren implementiert hat.

Trotz der anfänglichen Abhängigkeit von Googles Hardware bleibt Apples langfristige Strategie unberührt. Das Unternehmen hat seine proprietäre Apple Silicon-Chip-basierte Hardware in seine Rechenzentren integriert, um Anfragen zu Apple Intelligence zu verwalten. Darüber hinaus hat Apple „Project ACDC“ ins Leben gerufen, das darauf abzielt, KI-Anwendungen innerhalb seiner Rechenzentren zu verbessern.

Um mit Mitbewerbern wie Microsoft und Meta konkurrieren zu können, plant Apple, in den nächsten zwei Jahren über 5 Milliarden Dollar in die Aufrüstung seiner KI-Server und die Beschaffung von Zehntausenden neuen KI-Einheiten zu investieren. Zudem hat Apple zwei Unternehmen aus Kanada und Frankreich übernommen, die sich auf die Optimierung der für KI-Anfragen benötigten Daten spezialisiert haben.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles