Cerebras e G42 lançaram oficialmente o Condor Galaxy 3, um supercomputador de IA inovador que oferece um desempenho impressionante de oito exaFLOPs. Essa capacidade extraordinária é impulsionada por 58 milhões de núcleos otimizados para IA, conforme afirma Andrew Feldman, CEO da Cerebras, sediada em Sunnyvale, Califórnia. A G42, um importante player em soluções de nuvem e IA generativa em Abu Dhabi, UAE, utilizará este supercomputador para fornecer tecnologia de IA de ponta. Feldman destacou que este será um dos maiores supercomputadores de IA do mundo.
O Condor Galaxy 3 conta com 64 sistemas Cerebras CS-3, que utilizam o Wafer-Scale Engine 3 (WSE-3), considerado o chip de IA mais rápido da indústria. Esta robusta configuração permite ao computador atingir métricas de desempenho impressionantes enquanto treina modelos de IA colossal. “Nossa abordagem envolve a construção de vastos supercomputadores de IA de alta velocidade, evoluindo de clusters menores para sistemas maiores capazes de treinar modelos substanciais”, explicou Feldman.
A Cerebras adota uma abordagem única no design de chips, integrando múltiplos núcleos em um wafer semicondutor, o que melhora a velocidade de comunicação e a eficiência geral. Essa metodologia inovadora permite colocar 900 mil núcleos em um único wafer. Localizado em Dallas, Texas, o Condor Galaxy 3 é a terceira adição à rede Condor Galaxy. A colaboração entre Cerebras e G42 já gerou dois modelos anteriores, cada um oferecendo oito exaFLOPs, totalizando 16 exaFLOPs. Espera-se que até o final de 2024, a rede Condor Galaxy ultrapasse 55 exaFLOPs em potência computacional em IA, com planos para nove supercomputadores de IA no total.
Kiril Evtimov, CTO do Grupo G42, expressou seu entusiasmo: “O Condor Galaxy 3 fortalece nossa visão compartilhada de revolucionar o cenário global da computação em IA. Nossa rede existente já treinou modelos de código aberto líderes, e antecipamos inovações ainda maiores com esse desempenho aprimorado.”
Os 64 sistemas Cerebras CS-3 no Condor Galaxy 3 são alimentados pelo WSE-3, um chip de IA de 5 nanômetros que oferece o dobro do desempenho com o mesmo consumo de energia e custo que seu predecessor. Com quatro trilhões de transistores, o WSE-3 alcança um desempenho de pico de 125 petaflops, utilizando 900 mil núcleos otimizados para IA por chip. “Estamos orgulhosos de apresentar nossos sistemas CS-3, fundamentais para nossa colaboração com a G42”, afirmou Feldman. “Com cada iteração subsequente do Condor Galaxy, escalaremos nossas capacidades de processamento de 36 exaFLOPs para mais de 55 exaFLOPs, marcando um avanço significativo na computação em IA.”
O Condor Galaxy já treinou diversos modelos de IA generativa, incluindo Jais-30B e Med42. O primeiro é reconhecido como o principal modelo bilíngue em árabe mundialmente, agora disponível na Azure Cloud, enquanto o Med42, criado em parceria com a M42 e Core42, se destaca como um modelo clínico de linguagem. Com lançamento programado para o segundo trimestre de 2024, o Condor Galaxy 3 promete aprimorar as capacidades dos sistemas de IA.
Além disso, a Cerebras anunciou o chip WSE-3, que estabelece um novo recorde como o chip de IA mais rápido até o momento. O WSE-3 mantém o mesmo consumo de energia, enquanto oferece o dobro do desempenho do modelo anterior WSE-2, solidificando sua posição na vanguarda da tecnologia de IA. Feldman observou que o CS-3 requer 97% menos código do que GPUs, tornando-o excepcionalmente fácil de usar. O sistema pode treinar modelos que variam de 1 bilhão a 24 trilhões de parâmetros, simplificando drasticamente os fluxos de trabalho de treinamento.
A Cerebras já garantiu um forte backlog de pedidos para o CS-3 de diversos setores, incluindo empresas e governo. Rick Stevens, Diretor Associado do Laboratório Nacional Argonne, comentou sobre o potencial transformador das soluções da Cerebras na pesquisa científica e médica em IA. Além disso, a Cerebras firmou uma colaboração estratégica com a Qualcomm para aproveitar as forças de ambas as empresas. Essa parceria visa entregar dez vezes o desempenho em inferência de IA, por meio de treinamento de modelos otimizado no CS-3.
Feldman destacou: “Essa colaboração com a Qualcomm nos permite treinar modelos otimizados para seu motor de inferência, reduzindo significativamente os custos de inferência e o tempo para retorno sobre investimento (ROI).” Com mais de 400 engenheiros envolvidos, a Cerebras está comprometida em oferecer um poder computacional sem precedentes para enfrentar os desafios mais prementes em IA hoje.