데이터 센터 기술 선도 기업들이 인공지능(AI) 시스템의 확장을 위한 새로운 방법을 모색하기 위해 울트라 가속기 링크(UALink) 촉진 그룹을 설립했습니다.
업계 주요 기업 연합
Advanced Micro Devices (AMD), Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta, Microsoft 등 선도 기업들이 데이터 센터 내 AI 시스템을 위한 고속 저지연 통신을 개선하는 산업 표준을 개발하기 위해 협력하고 있습니다.
UALink 소개
UALink 이니셔티브는 AI 가속기 간의 효과적인 통신을 지원하여 AI 연결 데이터 센터의 통합, 유연성 및 확장성을 향상시키는 개방형 산업 표준을 구축하는 것입니다. 개방형 표준 기반의 인터커넥트를 확립함으로써 UALink는 시스템 OEM, IT 전문가 및 시스템 통합자에게 혜택을 제공할 것입니다.
AMD 데이터 센터 솔루션 그룹의 총괄 매니저인 포레스트 노로드(Forrest Norrod)는 이 협업의 중요성을 강조하며, "포괄적이고 고성능의 가속기 패브릭을 구축하기 위한 UALink의 노력은 AI의 미래에 매우 중요하다. 우리의 전문 지식을 결합해 개방형 표준을 진전시키고 AI 생태계를 강화할 것입니다."라고 말했습니다.
주요 제외 사항
촉진 그룹은 대규모 AI 및 고성능 컴퓨팅에 대한 풍부한 경험을 자랑하지만, AI 칩 선도 기업인 Nvidia는 포함되어 있지 않습니다.
개방형 표준에 대한 약속
Broadcom 데이터 센터 솔루션 그룹의 부사장인 재스 트레임블레이(Jas Tremblay)는 "UALink 컨소시엄의 창립 멤버로서, 데이터 센터 내 대규모 AI 기술의 채택을 촉진하는 것이 목표입니다. 오픈 생태계를 지원하는 것은 다양한 고속 저지연 솔루션이 갖춘 확장 가능한 네트워크를 가능하게 하는 데 필수적입니다."라고 밝혔습니다.
AI 워크로드의 효과적인 확장
AI 컴퓨팅 수요가 증가함에 따라, 추가 컴퓨팅 자원을 손쉽게 통합할 수 있는 robust한 저지연 네트워크를 구축하는 것이 필요합니다. UALink 그룹은 AI 워크로드에 대한 고성능 환경을 조성하기 위한 사양을 표준화하며, 성능 결과를 극대화할 계획입니다.
그룹은 향후 AI 데이터 센터 내 AI 및 머신 러닝, 고성능 컴퓨팅(HPC), 클라우드 애플리케이션에 대한 인터페이스를 최적화하는 사양을 개발할 예정입니다. 이들은 AI 컴퓨팅 포드 내 가속기와 스위치 간의 원활한 통신을 위한 고속 저지연 인터커넥트를 정의하는 것을 목표로 하고 있습니다.
예정된 1.0 사양은 단일 AI 컴퓨팅 포드에서 최대 1,024개의 가속기를 연결할 수 있도록 해 주며, 가속기 메모리(GPU와 같은) 간의 직접적인 데이터 전송을 가능하게 합니다.
미래 전망
UALink 촉진 그룹은 곧 UALink 컨소시엄을 설립할 예정이며, 2024년 3분기에 공식 출범할 것으로 기대됩니다. 같은 시기에 컨소시엄 회원을 위한 1.0 사양도 발표될 예정입니다.
UALink 소개
울트라 가속기 링크(UALink)는 차세대 AI 및 머신 러닝(ML) 클러스터의 성능을 향상시키기 위해 설계된 최첨단 가속기 인터커넥트 기술입니다. AMD, Broadcom, Cisco, Google, HPE, Intel, Meta, Microsoft는 데이터 센터 가속기의 성능을 혁신적으로 지원하고 개방형 생태계를 조성하기 위한 기술 사양을 개발하기 위해 개방형 표준 기구를 설립하는 데 전념하고 있습니다.
Cisco의 커먼 하드웨어 그룹 EVP인 마틴 룬드(Martin Lund)는 "AI 워크로드가 증가함에 따라 초고속 성능 인터커넥트가 중요해질 것입니다. 우리의 공동 목표는 AI 슈퍼컴퓨터 구축의 도전을 해결하는 확장 가능하고 개방적인 솔루션인 UALink를 만드는 것입니다."라고 전했습니다.