El Wall Street Journal informó ayer que el CEO de OpenAI, Sam Altman, busca recaudar hasta $7 billones para un ambicioso proyecto tecnológico destinado a mejorar significativamente la capacidad global de chips. Esta iniciativa, respaldada por inversores incluidos los E.A.U., podría transformar drásticamente la potencia disponible para modelos de inteligencia artificial.
Aunque algunos pueden considerar el objetivo de Altman como excesivamente ambicioso o parecido a las grandiosas aspiraciones de Elon Musk, las repercusiones ambientales de un proyecto de tal magnitud son notables, según Sasha Luccioni, líder de clima en Hugging Face. "Si este proyecto se materializa, la demanda de recursos naturales será asombrosa," señaló. "Incluso si se utiliza energía renovable—lo cual no es seguro—la cantidad de agua y minerales raros requeridos será astronómica."
Un informe de septiembre de 2023 de Fortune resaltó los costos ambientales asociados con los avances en inteligencia artificial. Microsoft experimentó un aumento del 34% en el consumo de agua debido a las herramientas de IA; el modelo Llama 2 de Meta utilizó el doble de agua que Llama 1; y un estudio de 2023 reveló que el entrenamiento de GPT-3 de OpenAI consumió 700,000 litros de agua. Además, la escasez de minerales esenciales como el galio y el germanio ha intensificado el conflicto global por chips con China.
Luccioni criticó a Altman por optar por soluciones de fuerza bruta en lugar de explorar métodos más eficientes para desarrollar IA. "Lo están aclamando como visionario, pero su enfoque es preocupante," argumentó.
En medio de estos desafíos, la búsqueda de Altman para abordar la escasez de GPUs y transformar el panorama de semiconductores refleja una tendencia más amplia en Silicon Valley. El verano pasado, surgieron informes sobre la demanda extrema del GPU H100 de Nvidia para el entrenamiento de modelos de lenguaje grande, un tema candente en la industria tecnológica.
En una reciente llamada de ganancias, el CEO de Meta, Mark Zuckerberg, enfatizó que construir "una inteligencia general completa" requiere "infraestructura computacional de clase mundial." Anunció planes para tener aproximadamente 350,000 H100 para fin de año, con un total de alrededor de 600,000 equivalentes de H100 una vez que se consideren otras GPUs. La empresa tiene la intención de continuar su inversión agresiva en recursos computacionales de vanguardia y silicio personalizado para cargas de trabajo especializadas.
Luccioni también ha expresado preocupaciones sobre la falta de transparencia de Nvidia respecto al impacto ambiental de sus productos. "Nvidia no ha publicado detalles sobre la huella de carbono relacionada con sus procesos de fabricación," explicó. Además, los residuos electrónicos representan un desafío considerable, ya que los consumidores a menudo desechan GPUs antiguas poco después de adquirir nuevas.
Aunque el Informe de Responsabilidad Corporativa 2023 de Nvidia reconoció las emisiones generadas durante el ciclo de vida del producto, Luccioni cree que se necesita más transparencia. Observó que ha habido una disminución en la información ambiental compartida por las empresas tecnológicas a lo largo del tiempo. Por ejemplo, el documento de PaLM 1 de Google en 2022 proporcionó suficientes detalles para estimar el consumo energético, mientras que el posterior lanzamiento de PaLM 2 carecía de información esencial sobre la duración del entrenamiento o el uso de chips.
A pesar de sus preocupaciones, Luccioni se muestra escéptica acerca del ambicioso proyecto de Altman. "Lo veo como una empresa grandiosa que probablemente no tendrá éxito," comentó. "Sin embargo, lo sitúa junto a Elon Musk en cuanto a proyectos audaces que capturan la atención pública y generan expectativas."