Cerebras y G42 han lanzado oficialmente Condor Galaxy 3, un innovador superordenador de IA que promete un rendimiento extraordinario de ocho exaFLOPs. Esta impresionante capacidad está impulsada por 58 millones de núcleos optimizados para IA, según Andrew Feldman, CEO de Cerebras, ubicado en Sunnyvale, California. G42, un destacado actor en soluciones de IA generativa y en la nube en Abu Dabi, EAU, utilizará este superordenador para ofrecer tecnología de IA de vanguardia. Feldman enfatizó que este será uno de los superordenadores de IA más grandes del mundo.
Condor Galaxy 3 cuenta con 64 sistemas Cerebras CS-3, que utilizan el Wafer-Scale Engine 3 (WSE-3), considerado el chip de IA más rápido del sector. Esta robusta configuración permite al ordenador alcanzar métricas de rendimiento asombrosas mientras entrena modelos de IA gigantescos. “Nuestra estrategia consiste en construir superordenadores de IA vastos y de alta velocidad, evolucionando de clústeres más pequeños a sistemas más grandes capaces de entrenar modelos significativos”, explicó Feldman.
Cerebras adopta un enfoque único en diseño de chips, integrando múltiples núcleos en una oblea semiconductor, lo que mejora la velocidad de comunicación y la eficiencia general. Esta metodología innovadora les permite colocar 900,000 núcleos en una sola oblea. Ubicado en Dallas, Texas, Condor Galaxy 3 es el tercer integrante de la red Condor Galaxy. La colaboración entre Cerebras y G42 ha producido ya dos modelos anteriores, cada uno con un rendimiento de ocho exaFLOPs, sumando un total combinado de 16 exaFLOPs. Para finales de 2024, se espera que la red Condor Galaxy supere los 55 exaFLOPs en potencia de computación de IA, con planes para desplegar un total de nueve superordenadores de IA.
Kiril Evtimov, CTO del Grupo G42, expresó su entusiasmo: “Condor Galaxy 3 refuerza nuestra visión compartida de revolucionar el panorama global de la computación IA. Nuestra red existente ya ha entrenado modelos de código abierto líderes, y anticipamos aún mayores innovaciones con este rendimiento mejorado”.
Los 64 sistemas Cerebras CS-3 en Condor Galaxy 3 están impulsados por el WSE-3, un avanzado chip de IA de 5 nanómetros que ofrece el doble de rendimiento al mismo consumo energético y costo que su predecesor. Con cuatro billones de transistores, el WSE-3 logra un rendimiento máximo de 125 petaflops utilizando 900,000 núcleos optimizados para IA por chip. “Nos enorgullece presentar nuestros sistemas CS-3, fundamentales para nuestra colaboración con G42,” afirmó Feldman. “Con cada iteración posterior de Condor Galaxy, escalaremos nuestras capacidades de procesamiento de 36 exaFLOPs a más de 55 exaFLOPs, marcando un avance significativo en la computación de IA”.
Condor Galaxy ya ha entrenado varios modelos de IA generativa, incluyendo Jais-30B y Med42. El primero es reconocido como el mejor modelo bilingüe en árabe a nivel mundial, ahora disponible en Azure Cloud, mientras Med42, creado en colaboración con M42 y Core42, se destaca como modelo de lenguaje clínico.
Programado para su lanzamiento en el segundo trimestre de 2024, Condor Galaxy 3 está destinado a mejorar las capacidades de los sistemas de IA. Además, Cerebras ha anunciado el chip WSE-3, que establece un nuevo récord como el chip de IA más rápido hasta la fecha. El WSE-3 mantiene el mismo consumo energético mientras ofrece el doble de rendimiento que el modelo anterior WSE-2, consolidando su posición en la vanguardia de la tecnología de IA.
Feldman señaló que el CS-3 requiere un 97% menos de código que las GPU, lo que lo hace excepcionalmente fácil de usar. El sistema puede entrenar eficientemente modelos que van de 1 billón a 24 billones de parámetros, simplificando drásticamente los flujos de trabajo de entrenamiento. Cerebras ya ha asegurado un sólido backlog de pedidos para el CS-3 en diversos sectores, incluyendo empresas y gobiernos.
Rick Stevens, Director Asociado del Laboratorio Nacional Argonne, comentó sobre el potencial transformador de las soluciones de Cerebras en investigaciones científicas y médicas de IA. Además, Cerebras ha establecido una colaboración estratégica con Qualcomm para aprovechar las fortalezas de ambas empresas. Esta alianza busca ofrecer diez veces más rendimiento en inferencia de IA a través del entrenamiento optimizado de modelos en el CS-3.
Feldman destacó: “Esta colaboración con Qualcomm nos permite entrenar modelos optimizados para su motor de inferencia, reduciendo significativamente los costos de inferencia y el tiempo de retorno de inversión (ROI)”. Con más de 400 ingenieros a bordo, Cerebras está comprometido en proporcionar una potencia de computación sin precedentes para abordar los desafíos más apremiantes en la IA actual.