Nvidia의 DGX SuperPOD: 조단위 파라미터 AI 모델을 지원하는 강력한 힘을 unleashing합니다.

엔비디아는 GTC 컨퍼런스에서 DGX 슈퍼포드의 출시를 통해 가장 강력한 시스템을 선보였습니다. 이 최첨단 시스템은 포괄적인 하드웨어 및 소프트웨어 롤아웃의 일환입니다.

최근 몇 년 동안 DGX는 엔비디아의 서버 및 클라우드 서비스에서 중요한 역할을 해왔습니다. 새로운 DGX 슈퍼포드는 AI 가속을 위한 차세대 GPU인 블랙웰을 장착하고 있으며, 이는 호퍼 GPU의 후계자로 소개되고 있습니다. 블랙웰은 조정 파라미터가 조밀한 AI 모델을 지원하도록 설계되었습니다.

DGX 슈퍼포드란?

DGX 슈퍼포드는 단일 서버가 아닌, 여러 DGX GB200 시스템으로 구성된 강력한 플랫폼입니다. 각 시스템은 36개의 엔비디아 GB200 슈퍼칩을 포함하며, 36개의 엔비디아 그레이스 CPU와 72개의 엔비디아 블랙웰 GPU가 통합되어 있습니다. 모든 구성 요소는 5세대 엔비디아 NVLink로 연결되어 있습니다. 이 슈퍼컴퓨터 플랫폼은 8대 이상의 DGX GB200 시스템으로 확장 가능하며, 수만 개의 GB200 슈퍼칩이 엔비디아 퀀텀 인피니밴드로 연결됩니다.

시스템은 대규모 언어 모델(LLM) 훈련과 생성 AI 추론을 위한 240테라바이트의 메모리를 자랑하며, 11.5 엑사플롭스의 AI 슈퍼컴퓨팅 파워를 제공합니다.

고급 네트워킹 및 처리

DGX 슈퍼포드의 주요 특징은 통합 컴퓨팅 패브릭으로, 새로운 엔비디아 퀀텀-X800 인피니밴드 네트워킹 기술을 통해 GPU당 최대 1,800 기가바이트의 대역폭을 제공합니다. 시스템은 엔비디아 블루필드-3 데이터 처리 장치(DPU)와 5세대 NVLink도 통합하고 있습니다.

또한, DGX 슈퍼포드는 4세대 엔비디아 확장 가능한 계층 집계 및 축소 프로토콜(SHARP) 기술을 포함하여, 14.4 테라플롭스의 네트워크 내 컴퓨팅을 제공합니다. 이는 이전 모델보다 4배 향상된 수치입니다.

엔비디아 DGX 클라우드의 블랙웰

GB200 기반의 DGX 시스템은 곧 엔비디아의 DGX 클라우드 서비스를 통해 제공될 예정이며, 처음에는 아마존 웹 서비스(AWS), 구글 클라우드 및 오라클 클라우드와 같은 주요 플랫폼에서 이용 가능할 것입니다.

엔비디아의 HPC 및 하이퍼스케일 부문 부사장인 이안 벅(Ian Buck)은 "DGX 클라우드는 클라우드 협력 파트너와 협력하여 AI 연구 및 고객을 위해 최고의 엔비디아 기술을 제공하도록 설계되었습니다."라고 전했습니다. 새로운 GB200 아키텍처는 AWS와 함께 개발 중인 세계 최대의 공공 클라우드 슈퍼컴퓨터인 프로젝트 세이바(Project Ceiba)를 향상시킵니다.

벅은 "프로젝트 세이바는 진화하여 이제 20,000개의 GPU를 지원하는 그레이스 블랙웰 아키텍처로 업그레이드되었습니다. 이를 통해 400 엑사플롭스 이상의 AI 처리가 가능해집니다."라고 밝히며 흥미로운 발전 소식을 전했습니다.

이러한 발전은 엔비디아를 AI 기술의 선두주자로 자리매김하게 하며, DGX 슈퍼포드는 AI 연구 및 응용 분야에 참여하는 산업에 놀라운 도구가 될 것입니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles