Sam Altman Busca $7 Trilhões para Chips de IA: Os 'Recursos Naturais Impressionantes' Necessários

O Wall Street Journal informou ontem que o CEO da OpenAI, Sam Altman, planeja levantar até US$ 7 trilhões para um ambicioso projeto tecnológico que visa aumentar significativamente a capacidade global de chips. Esta iniciativa, apoiada por investidores, incluindo os EAU, pode melhorar drasticamente a energia disponível para modelos de IA.

Embora alguns considerem o objetivo de Altman excessivamente ambicioso ou semelhante às grandiosas aspirações de Elon Musk, as consequências ambientais de um projeto de tal magnitude são alarmantes, segundo Sasha Luccioni, líder em clima na Hugging Face. “Se este projeto se concretizar, a demanda por recursos naturais será impressionante,” observou. “Mesmo que energias renováveis sejam utilizadas — o que não é garantido — a quantidade de água e minerais raros exigida será astronômica.”

Em uma comparação, um relatório de setembro de 2023 da Fortune destacou os custos ambientais associados aos avanços em IA. A Microsoft viu um aumento de 34% no consumo de água devido às ferramentas de IA; o modelo Llama 2 da Meta supostamente usou o dobro de água que o Llama 1; e um estudo de 2023 revelou que o treinamento do GPT-3 da OpenAI consumiu 700.000 litros de água. Além disso, a escassez de minerais essenciais como gálio e germânio intensificou o conflito global de chips com a China.

Luccioni criticou Altman por favorecer soluções de força bruta em vez de explorar métodos mais eficientes para desenvolver IA. “Ele está sendo aclamado como visionário, mas sua abordagem é preocupante,” argumentou.

Diante desses desafios, a busca de Altman para resolver a escassez de GPUs e transformar o setor de semicondutores reflete uma tendência mais ampla no Vale do Silício. No último verão, surgiram relatos sobre a demanda extrema pelo GPU H100 da Nvidia para treinamento de modelos de linguagem, que se tornou um tópico quente na indústria de tecnologia.

Em uma recente chamada de resultados, o CEO da Meta, Mark Zuckerberg, enfatizou que construir "inteligência geral completa" exige "infraestrutura de computação de classe mundial." Ele anunciou planos para ter aproximadamente 350.000 H100 até o final do ano, com um total de cerca de 600.000 equivalentes de H100 uma vez que outros GPUs sejam considerados. A empresa pretende continuar investindo agressivamente em recursos computacionais de ponta e silício personalizado para cargas de trabalho especializadas.

Luccioni também expressou preocupações sobre a falta de transparência da Nvidia em relação ao impacto ambiental de seus produtos. "A Nvidia não publicou detalhes sobre a pegada de carbono relacionada aos seus processos de fabricação," explicou. Além disso, os resíduos eletrônicos representam um desafio significativo, pois os consumidores frequentemente descartam GPUs antigas logo após adquirirem novas.

Embora o Relatório de Responsabilidade Corporativa de 2023 da Nvidia tenha reconhecido as emissões geradas ao longo do ciclo de vida do produto, Luccioni acredita que é necessária mais transparência. Ela observou que houve uma diminuição nas informações ambientais compartilhadas pelas empresas de tecnologia ao longo do tempo. Por exemplo, o artigo do PaLM 1 do Google em 2022 forneceu detalhes suficientes para estimativas de uso de energia, enquanto o lançamento subsequente do PaLM 2 carecia de informações essenciais sobre a duração do treinamento ou o uso de chips.

Apesar de suas preocupações, Luccioni se mostra cética em relação ao projeto ambicioso de Altman. “Vejo isso como uma empreitada elevada que provavelmente não terá sucesso,” comentou. “No entanto, coloca Altman ao lado de Elon Musk em termos de projetos ousados que capturam a atenção do público e geram burburinho.”

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles