NVIDIA, OpenAI에 첫 번째 DGX B200 엔지니어링 유닛 전달
2023년 10월 9일, NVIDIA는 X 플랫폼을 통해 OpenAI에 DGX B200의 첫 번째 엔지니어링 유닛을 전달했다고 발표했습니다. OpenAI는 트윗을 통해 "첫 DGX B200 엔지니어링 유닛을 사무실에 가져다 준 NVIDIA에 감사드립니다—우리의 최신 인수를 확인해 보세요!"라고 전했습니다.
DGX B200 플랫폼 소개
NVIDIA DGX B200은 기업이 개발에서 배포에 이르기까지 포괄적인 솔루션을 제공하도록 설계된 통합 인공지능 플랫폼입니다. 여덟 개의 NVIDIA Blackwell GPU로 장착된 DGX B200은 뛰어난 계산 성능을 자랑하며 대규모 언어 모델과 자연어 처리와 같은 복잡한 AI 작업을 처리하는 데 최적화되어 있습니다.
NVIDIA의 B200 텐서 코어 GPU를 특징으로 하는 이 시스템은 훈련 작업을 신속하게 수행할 수 있으며 다양한 워크로드를 지원합니다. 또한 최대 30TB의 NVMe SSD 스토리지를 제공하여 빠른 데이터 접근과 효율적인 처리 성능을 보장합니다.
Microsoft Azure: NVIDIA Blackwell 시스템을 운영하는 최초의 클라우드 서비스
2023년 10월 8일, Microsoft는 Azure가 NVIDIA의 Blackwell 시스템을 운영하는 최초의 클라우드 서비스가 되었다고 발표했습니다. 그들의 트윗에 따르면, Azure는 GB200으로 구동되는 AI 서버를 제공하며, 세계에서 가장 진보된 AI 모델을 지원하기 위해 계층적으로 최적화되었습니다. 이 서버는 인피니밴드 네트워킹과 혁신적인 폐쇄 루프 액체 냉각 기술을 활용합니다. Microsoft가 공개한 사진에 따르면, 캐비닛은 단지 8개의 GB200 트레이만 수용하지만, 열 효율성을 향상시키는 업그레이드된 액체-공기 열교환기를 포함한 강력한 냉각 기술을 갖추고 있습니다.
결론
NVIDIA의 DGX B200과 Microsoft의 Azure 클라우드 서비스는 인공지능 기술의 발전을 더욱 가속화하며, 기업에 향상된 컴퓨팅 능력과 효율적인 솔루션을 제공할 것입니다.