Sam Altman sucht 7 Billionen Dollar für KI-Chips: Die „unglaublichen“ natürlichen Ressourcen, die benötigt werden.

Das Wall Street Journal berichtete gestern, dass Sam Altman, CEO von OpenAI, plant, bis zu 7 Billionen Dollar für ein ehrgeiziges Technologieprojekt zu sammeln, das die globale Chipkapazität erheblich steigern soll. Diese Initiative, unterstützt von Investoren wie den V.A.E., könnte die Leistung für KI-Modelle drastisch verbessern.

Während einige Altmans Ziel als überambitioniert oder reminiscent an die großspurigen Bestrebungen von Elon Musk betrachten, sind die ökologischen Auswirkungen eines so großangelegten Projekts laut Sasha Luccioni, Klimaexpertin bei Hugging Face, alarmierend. „Wenn dieses Projekt realisiert wird, wird die Nachfrage nach natürlichen Ressourcen enorm sein“, stellte sie fest. „Selbst wenn erneuerbare Energien genutzt werden – was nicht sicher ist – wird der benötigte Wasser- und Rohstoffbedarf astronomisch sein.“

Ein Bericht von Fortune aus September 2023 hob die Umweltkosten im Zusammenhang mit KI-Fortschritten hervor. Microsoft verzeichnete einen Anstieg des Wasserverbrauchs um 34 % aufgrund von KI-Tools; das Llama-2-Modell von Meta soll doppelt so viel Wasser verbraucht haben wie Llama 1; und eine Studie aus dem Jahr 2023 ergab, dass das Training von OpenAIs GPT-3 700.000 Liter Wasser verbrauchte. Zudem hat die Knappheit wichtiger Mineralien wie Gallium und Germanium den globalen Chipkonflikt mit China verschärft.

Luccioni kritisierte Altman dafür, auf brutale Lösungen zu setzen, anstatt effizientere Methoden zur KI-Entwicklung zu erforschen. „Er wird als visionär gefeiert, jedoch ist sein Ansatz besorgniserregend“, argumentierte sie.

Inmitten dieser Herausforderungen spiegelt Altmans Bestreben, die Engpässe bei GPUs zu beseitigen und die Halbleiterlandschaft zu revolutionieren, einen breiteren Trend im Silicon Valley wider. Letzten Sommer gab es Berichte über die extreme Nachfrage nach Nvidias H100-GPU für das Training großer Sprachmodelle, ein heiß diskutiertes Thema in der Tech-Branche.

In einem aktuellen earnings call betonte Mark Zuckerberg, CEO von Meta, dass der Aufbau von „voller allgemeiner Intelligenz“ eine „Weltklasse-Computing-Infrastruktur“ erfordere. Er kündigte an, bis Jahresende voraussichtlich 350.000 H100-GPUs bereitzustellen, insgesamt etwa 600.000 H100-Äquivalente, wenn andere GPUs berücksichtigt werden. Das Unternehmen plant, weiterhin aggressiv in fortschrittliche Rechenressourcen und maßgeschneiderte Siliziumlösungen für spezialisierte Anwendungen zu investieren.

Luccioni äußerte auch Bedenken hinsichtlich Nvidias mangelnder Transparenz bezüglich der Umweltauswirkungen ihrer Produkte. „Nvidia hat keine Details zum CO2-Fußabdruck in ihren Produktionsprozessen veröffentlicht“, erklärte sie. Darüber hinaus stellt Elektroschrott eine signifikante Herausforderung dar, da Verbraucher alte GPUs oft schnell nach dem Erwerb neuer Modelle entsorgen.

Obwohl Nvidias Bericht zur Unternehmensverantwortung 2023 die Emissionen während des Produktlebenszyklus anerkannte, glaubt Luccioni, dass mehr Transparenz erforderlich ist. Sie bemerkte, dass die Umweltinformationen, die von Tech-Unternehmen bereitgestellt werden, im Laufe der Zeit abgenommen haben. So lieferte Googles PaLM-1-Papier im Jahr 2022 ausreichend Details für Energieverbrauchsschätzungen, während die nachfolgende Veröffentlichung von PaLM 2 essentielle Informationen über Trainingsdauer oder Chipnutzung vermisste.

Trotz ihrer Bedenken bleibt Luccioni skeptisch gegenüber Altmans ehrgeizigem Projekt. „Ich sehe dies als ein hochfliegendes Vorhaben, das wahrscheinlich nicht erfolgreich sein wird“, bemerkte sie. „Dennoch stellt es Altman in eine Reihe mit Elon Musk, wenn es um gewagte Projekte geht, die öffentliche Aufmerksamkeit erregen und Aufsehen erregen.“

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles