Cerebras Lança o Condor Galaxy 3: Um Supercomputador de IA com Desempenho de 8 ExaFLOPs

Cerebras e G42 lançaram oficialmente o Condor Galaxy 3, um supercomputador de IA inovador que oferece um desempenho impressionante de oito exaFLOPs. Essa capacidade extraordinária é impulsionada por 58 milhões de núcleos otimizados para IA, conforme afirma Andrew Feldman, CEO da Cerebras, sediada em Sunnyvale, Califórnia. A G42, um importante player em soluções de nuvem e IA generativa em Abu Dhabi, UAE, utilizará este supercomputador para fornecer tecnologia de IA de ponta. Feldman destacou que este será um dos maiores supercomputadores de IA do mundo.

O Condor Galaxy 3 conta com 64 sistemas Cerebras CS-3, que utilizam o Wafer-Scale Engine 3 (WSE-3), considerado o chip de IA mais rápido da indústria. Esta robusta configuração permite ao computador atingir métricas de desempenho impressionantes enquanto treina modelos de IA colossal. “Nossa abordagem envolve a construção de vastos supercomputadores de IA de alta velocidade, evoluindo de clusters menores para sistemas maiores capazes de treinar modelos substanciais”, explicou Feldman.

A Cerebras adota uma abordagem única no design de chips, integrando múltiplos núcleos em um wafer semicondutor, o que melhora a velocidade de comunicação e a eficiência geral. Essa metodologia inovadora permite colocar 900 mil núcleos em um único wafer. Localizado em Dallas, Texas, o Condor Galaxy 3 é a terceira adição à rede Condor Galaxy. A colaboração entre Cerebras e G42 já gerou dois modelos anteriores, cada um oferecendo oito exaFLOPs, totalizando 16 exaFLOPs. Espera-se que até o final de 2024, a rede Condor Galaxy ultrapasse 55 exaFLOPs em potência computacional em IA, com planos para nove supercomputadores de IA no total.

Kiril Evtimov, CTO do Grupo G42, expressou seu entusiasmo: “O Condor Galaxy 3 fortalece nossa visão compartilhada de revolucionar o cenário global da computação em IA. Nossa rede existente já treinou modelos de código aberto líderes, e antecipamos inovações ainda maiores com esse desempenho aprimorado.”

Os 64 sistemas Cerebras CS-3 no Condor Galaxy 3 são alimentados pelo WSE-3, um chip de IA de 5 nanômetros que oferece o dobro do desempenho com o mesmo consumo de energia e custo que seu predecessor. Com quatro trilhões de transistores, o WSE-3 alcança um desempenho de pico de 125 petaflops, utilizando 900 mil núcleos otimizados para IA por chip. “Estamos orgulhosos de apresentar nossos sistemas CS-3, fundamentais para nossa colaboração com a G42”, afirmou Feldman. “Com cada iteração subsequente do Condor Galaxy, escalaremos nossas capacidades de processamento de 36 exaFLOPs para mais de 55 exaFLOPs, marcando um avanço significativo na computação em IA.”

O Condor Galaxy já treinou diversos modelos de IA generativa, incluindo Jais-30B e Med42. O primeiro é reconhecido como o principal modelo bilíngue em árabe mundialmente, agora disponível na Azure Cloud, enquanto o Med42, criado em parceria com a M42 e Core42, se destaca como um modelo clínico de linguagem. Com lançamento programado para o segundo trimestre de 2024, o Condor Galaxy 3 promete aprimorar as capacidades dos sistemas de IA.

Além disso, a Cerebras anunciou o chip WSE-3, que estabelece um novo recorde como o chip de IA mais rápido até o momento. O WSE-3 mantém o mesmo consumo de energia, enquanto oferece o dobro do desempenho do modelo anterior WSE-2, solidificando sua posição na vanguarda da tecnologia de IA. Feldman observou que o CS-3 requer 97% menos código do que GPUs, tornando-o excepcionalmente fácil de usar. O sistema pode treinar modelos que variam de 1 bilhão a 24 trilhões de parâmetros, simplificando drasticamente os fluxos de trabalho de treinamento.

A Cerebras já garantiu um forte backlog de pedidos para o CS-3 de diversos setores, incluindo empresas e governo. Rick Stevens, Diretor Associado do Laboratório Nacional Argonne, comentou sobre o potencial transformador das soluções da Cerebras na pesquisa científica e médica em IA. Além disso, a Cerebras firmou uma colaboração estratégica com a Qualcomm para aproveitar as forças de ambas as empresas. Essa parceria visa entregar dez vezes o desempenho em inferência de IA, por meio de treinamento de modelos otimizado no CS-3.

Feldman destacou: “Essa colaboração com a Qualcomm nos permite treinar modelos otimizados para seu motor de inferência, reduzindo significativamente os custos de inferência e o tempo para retorno sobre investimento (ROI).” Com mais de 400 engenheiros envolvidos, a Cerebras está comprometida em oferecer um poder computacional sem precedentes para enfrentar os desafios mais prementes em IA hoje.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles