Nvidia는 올해 3분기 동안 H100 및 A100 GPU를 거의 50만 개 출하하며 반도체 산업에 큰 영향을 미쳤습니다. 이 놀라운 성과는 데이터 센터에서 145억 달러의 수익을 창출했으며, 이는 지난해 같은 분기와 비교해 거의 4배 증가한 수치입니다. 이 성장은 클라우드 및 데이터 센터 통찰력 전문 연구 회사 Omdia의 주요 분석가인 Vlad Galabov과 Manoj Sukumaran이 발표한 최근 Market Snapshot Report에 상세히 설명되었습니다.
3분기 GPU 서버 출하의 대다수는 하이퍼스케일 클라우드 서비스 공급자에게 제공되었으며, Meta는 Nvidia의 주요 고객 중 하나로 부상했습니다. Microsoft도 H100 GPU에 대해 대규모 주문을 냈으며, 이는 AI 제품 및 Copilots의 확장을 지원하기 위한 것입니다. 기타 주요 고객으로는 Google, Amazon, Oracle, Tencent가 있으며, 후자는 Biden 행정부의 엄격한 수출 제한으로 인해 H100 GPU 접근에 어려움을 겪고 있습니다. Omdia의 분석가들은 Nvidia의 GPU 출하량이 4분기 말까지 50만 개를 초과할 것으로 예상하고 있으며, 이는 고성능 하드웨어에 대한 지속적인 높은 수요 때문입니다.
그러나 Dell, Lenovo, HPE 등 많은 서버 제조업체들은 H100 서버 주문 이행에 지연을 겪고 있습니다. 이러한 지연은 Nvidia로부터 충분한 GPU 할당을 받지 못해 발생하며, 예상 대기 시간은 36주에서 52주로 추정됩니다.
시장 역학
Galabov과 Sukumaran은 서버 시장이 2027년까지 1956억 달러에 이를 것으로 예상하며, 이는 10년 전의 두 배 이상입니다. 이러한 성장은 조직들이 특정 애플리케이션에 최적화된 하이퍼 헤테로지니어스 컴퓨팅으로 전환함에 따라 서버 프로세서 및 코 프로세서에 대한 의존도가 증가하고 있기 때문입니다.
AI 훈련 및 추론 작업을 위한 주요 서버 구성에는 Nvidia DGX 서버(8개의 H100/A100 GPU 장착)와 AI 추론을 위한 Amazon의 서버(16개의 Inferentia 2 코 프로세서 포함)가 있습니다. 비디오 트랜스코딩 분야에서는 Google의 20개 비디오 코딩 유닛(VCU)을 갖춘 서버와 Meta의 12개 확장 가능한 비디오 프로세서가 장착된 비디오 처리 서버가 시장 선호도가 높습니다.
저자들은 “특정 애플리케이션에 대한 수요가 증가하면서 최적화된 맞춤형 프로세서를 만드는 것이 경제적으로 유리해졌기 때문에 이러한 추세는 계속해서 성장할 것"이라고 예상했습니다. 그들은 현재 미디어 및 AI 분야가 하이퍼 헤테로지니어스 컴퓨팅의 혜택을 보고 있는 반면, 데이터베이스 및 웹 서비스와 같은 다른 분야도 조만간 유사한 최적화 전략을 채택할 가능성이 높다고 강조했습니다.
인프라 성장
Omdia의 조사에 따르면, AI 애플리케이션을 위한 이러한 고급 서버의 출현은 물리적 데이터 센터 인프라의 성장을 촉진하고 있습니다. 예를 들어, 올해 상반기 랙 전력 분배 수익은 17% 증가했으며, 이는 Omdia의 예상 성장률인 14%를 초과한 수치입니다. 또한, 데이터 센터 열 관리 수익은 2023년에 17% 증가할 것으로 예상되며, 이는 보다 높은 랙 밀도를 필요로 하는 혁신적인 액체 냉각 솔루션 덕분입니다.
생성 AI에 대한 전문 서비스가 확장되며 2024년 이후 기업 채택이 증가할 것으로 보이는 가운데, 저자들은 현재 AI 구현 속도의 주요 제약 요인은 전력 가용성일 수 있다고 제안했습니다. 그들은 자금 조달 제약에 따른 예측 차질이 없으며, 기업들이 sought-after GPU를 부채 담보로 활용하는 흥미로운 추세도 강조했습니다.
이러한 환경은 데이터 센터의 지속적인 발전에서 혁신적인 하드웨어와 최적화된 서버 구성이 필수적인 역할을 하고 있음을 보여주며, 다양한 분야에서 AI 기능에 대한 수요가 계속해서 증가하고 있습니다.