OpenAI, das Unternehmen hinter ChatGPT, erwägt die Entwicklung eigener Künstlicher Intelligenz (KI) Chips und zieht möglicherweise die Übernahme eines Unternehmens in Betracht, um dieses Vorhaben zu unterstützen. Laut Quellen, die von Reuters zitiert werden, deuten interne Diskussionen darauf hin, dass OpenAI seine Hardware-Lieferkette stärken möchte, um der steigenden weltweiten Nachfrage nach Chips gerecht zu werden, die für das Training von KI-Modellen unerlässlich sind.
Derzeit ist OpenAI stark auf Nvidia angewiesen, insbesondere auf die leistungsstarken Chips des Unternehmens, die für den Betrieb verwendet werden. Seit 2020 sind diese Chips ein integraler Bestandteil des Microsoft-Supercomputers, den OpenAI zur Ausbildung seiner fortschrittlichen KI-Modelle nutzt. Nvidia dominiert den Markt für KI-Chips und hat im zweiten Quartal beeindruckende 900 Tonnen seines Spitzenprodukts H100 ausgeliefert, wie die Forschung von Omdia berichtet.
Die Dringlichkeit für OpenAI, alternative Optionen zu prüfen, wird durch die öffentlichen Äußerungen von CEO Sam Altman unterstrichen, der Bedenken hinsichtlich der Verfügbarkeit von GPUs geäußert hat. In einem mittlerweile gelöschten Blogpost über ein Gespräch mit Raza Habib, dem CEO des Londoner KI-Unternehmens HumanLoop, erklärte Altman, dass Zuverlässigkeits- und Geschwindigkeitsprobleme der OpenAI-API auf "GPU-Engpässe" zurückzuführen seien. Die Knappheit an GPUs beeinträchtigt nicht nur die Zugänglichkeit, sondern treibt auch die Betriebskosten in die Höhe; Berichten zufolge gibt OpenAI täglich hunderte Tausende Dollar aus, um seine ChatGPT-Services aufrechtzuerhalten.
Obwohl es keine offizielle Bestätigung für die Entscheidung zur Verfolgung der Chip-Entwicklungspläne gibt, spiegelt der mögliche Schritt eine strategische Anstrengung wider, aktuelle Herausforderungen in der Lieferkette zu bewältigen.
In einer verwandten Entwicklung arbeitet Microsoft an eigenen benutzerdefinierten Chips mit der Marke Athena, unterstützt von einem spezialisierten Team von rund 300 Ingenieuren. Diese Chips sollen voraussichtlich bereits im nächsten Jahr sowohl von Microsoft als auch von OpenAI genutzt werden. Außerdem ist der Mitbewerber Meta ebenfalls damit beschäftigt, benutzerdefinierte Chips für seine internen KI-Modelle wie Llama 2 zu entwickeln, wobei die speziell für seine Betriebsbedürfnisse optimierten MITA-Chips verwendet werden.
Während sich die Landschaft der KI-Technologie weiterentwickelt, rennen die Unternehmen darum, ihre Infrastrukturfähigkeiten zu verbessern und den Weg für zukünftige Fortschritte bei KI-Anwendungen zu ebnen.