Diese Woche hob die Gewinnberichterstattung der Big-Tech-Unternehmen die Fortschritte jedes Unternehmens im Bereich KI hervor. Google konzentrierte sich auf generative KI in der Suche und Cloud-Diensten, während Microsoft die Integration von KI in den gesamten Technologiestack erläuterte. Amazon stellte KI-Chips und Bedrock vor und präsentierte einen neuen KI-unterstützten Einkaufsassistenten namens Rufus. Doch Meta trat als führend hervor, indem es eine umfassende KI-Strategie vorstellte.
Metas Ansatz zur KI zeichnet sich durch sein Engagement für Open Source und umfangreiche Trainingsdaten aus, die aus öffentlichen Beiträgen auf Facebook und Instagram stammen. Während der Gewinnberichterstattung von Meta für das vierte Quartal 2023 betonte CEO Mark Zuckerberg die vorteilhafte Position des Unternehmens in der KI-Entwicklung, insbesondere in Bezug auf Rechenressourcen.
Metas „Weltklasse-Computing-Infrastruktur“ für KI
Zuckerberg skizzierte eine langfristige Strategie, um bei der Entwicklung beliebter und fortschrittlicher KI-Produkte führend zu sein und betonte, dass die Erreichung von „voller allgemeiner Intelligenz“ erhebliche Rechenleistung erfordert. Bis Ende des Jahres plant Meta den Einsatz von etwa 350.000 H100-GPUs, mit einer Gesamtrechenkapazität von nahezu 600.000 H100-Äquivalenten. Die Nachfrage nach dieser Infrastruktur resultierte hauptsächlich aus Instagram Reels.
Zuckerberg erklärte: „Wir haben wertvolle Lektionen aus Reels gelernt. Zunächst haben wir unseren GPU-Bedarf unterschätzt, was uns dazu brachte, ausreichend Kapazitäten aufzubauen, um sowohl Reels als auch einen ähnlich großen KI-Dienst zu unterstützen.“ Er fügte hinzu: „Meta spielt, um zu gewinnen“, und erwartete, dass die Schulung zukünftiger Modelle noch mehr Rechenressourcen erfordert. „Moderne große Sprachmodelle wurden jährlich mit etwa dem Zehnfachen an Rechenleistung trainiert“, fügte er hinzu. Meta plant erhebliche Investitionen in maßgeschneiderte Rechenzentren und Silizium, das speziell auf seine Arbeitslasten zugeschnitten ist.
Metas Open-Source-KI-Strategie
Zuckerberg bekräftigte Metas unermüdliches Engagement für eine Open-Source-Strategie, trotz regulatorischer Prüfungen. Er erklärte: „Unsere Strategie besteht darin, allgemeine Infrastruktur aufzubauen und open source anzubieten, während wir spezifische Produktimplementierungen proprietär halten.“ Dazu gehören die Llama-Modelle, insbesondere das vielversprechende Llama 3, und Tools wie PyTorch.
Er hob die strategischen Vorteile von Open Source hervor und betonte, dass es die Sicherheit und den Schutz steigert, Branchenstandards fördert und Entwickler anzieht. „Open Source hilft uns, Top-Talente zu gewinnen, die entscheidend sind, um in neuen Technologien führend zu sein“, stellte er fest. Die Bereitstellung von Tools wie Llama als Open Source mindert nicht Metas Wettbewerbsfähigkeit.
Umfangreiche Trainingsdaten übertreffen Common Crawl
Zuckerberg betonte Metas robuste Daten- und Feedback-Mechanismen und behauptete, dass die Fülle an Daten von Facebook und Instagram, die „Hunderte von Milliarden öffentlich geteilter Bilder und Zehntausende von Milliarden öffentlichen Videos“ umfasst, wahrscheinlich die Common-Crawl-Daten übertrifft. Common Crawl beinhaltet große Mengen an Webdaten, die seit 2008 gesammelt wurden.
Zuckerberg erläuterte: „Was uns wirklich auszeichnet, ist unsere Fähigkeit, effektive Feedback-Schleifen mit Hunderten von Millionen Nutzern zu schaffen, die mit unseren KI-Diensten interagieren. Diese Interaktion boostet die Verbesserung unserer KI-Systeme erheblich, insbesondere bei Reels und Anzeigen.“
Metas Engagement für KI-Führung
Ein kürzlich erschienener Artikel von Bloomberg stellte fest, dass der Erfolg von Metas Llama-Modell echte Lamas zu den inoffiziellen Maskottchen von Open-Source-KI-Veranstaltungen gemacht hat. Laut Metas jüngstem Finanzbericht zeigt das Unternehmen jedoch seine Bereitschaft, erheblich zu investieren – möglicherweise mehrere Milliarden Dollar – um seine Führungsrolle im KI-Bereich in einem sich schnell entwickelnden Wettbewerbsumfeld auszubauen.