앰페어 컴퓨팅, CPU 제품군 확장 및 AI 효율성 집중
앰페어 컴퓨팅이 오는 해까지 앰페어원(AmpereOne) 칩 제품군을 256코어로 확장한다고 발표했습니다. 이 회사는 퀄컴과 협력해 클라우드 AI 가속기를 개발하고 있습니다. 제프 위티치(Jeff Wittich) 최고 제품 책임자는 새로운 중앙 처리 장치(CPU)가 현재 시판 중인 다른 CPU보다 40% 더 높은 성능을 제공할 것이라고 밝혔습니다.
퀄컴과의 협력
캘리포니아 산타클라라에 본사를 둔 앰페어는 퀄컴 테크놀로지스와 협력해 퀄컴의 고성능 저전력 Cloud AI 100 인퍼런스 솔루션과 앰페어 CPU를 활용하여 AI 추론 솔루션을 개발할 계획입니다. 앰페어 CEO 레니 제임스(Renee James)는 AI 발전이 초래하는 에너지 문제의 시급성을 강조했습니다. "우리는 이 여정을 6년 전에 시작했으며, 그 중요성을 인식하고 있었습니다,"라고 제임스는 말했습니다. "저전력은 더 이상 저성능을 의미하지 않습니다. 앰페어는 효율성의 경계를 재정의하여 효율적인 프레임워크 내에서 뛰어난 성능을 제공합니다."
데이터 센터 에너지 효율성 문제
데이터 센터의 에너지 소비는 증가하는 문제입니다. 제임스는 AI로의 빠른 전환이 산업의 에너지 문제를 더욱 심화시키고 있다고 강조했습니다. "현재의 경로는 지속 불가능합니다. 미래의 데이터 센터 인프라는 기존의 공랭식 구조를 재구성하고 그리드 전력 사용 가능성에 호환되는 지속 가능한 새로운 시설을 건설해야 합니다,"라고 그녀는 밝혔습니다. 위티치도 이에 동의하며 AI로 인해 데이터 센터에서의 전력 소비가 증가하면서 새로운 CPU의 필요성이 커졌다고 설명했습니다. “일반-purpose 컴퓨팅 및 AI 전반에서 효율성을 향상시키는 솔루션 개발이 필수적입니다,”라고 위티치는 덧붙였습니다.
앰페어의 AI 컴퓨팅 비전
앰페어는 클라우드 네이티브 기능과 AI 기능을 아우르는 포괄적인 접근 방식을 'AI 컴퓨팅'이라고 명명하고 있습니다. "우리의 CPU는 인기 있는 클라우드 네이티브 애플리케이션부터 AI에 이르는 다양한 워크로드를 지원하며, 데이터 처리 및 미디어 전달과 같은 전통적인 애플리케이션에 AI를 통합할 수 있습니다,"라고 위티치는 설명했습니다.
미래 로드맵
앰페어는 데이터 센터 CPU에 대한 야심 찬 로드맵을 설정했습니다. 주요 향후 개발에는 TSMC N3 기술을 사용하여 제조된 12채널 256코어 CPU가 포함됩니다. 이미 생산 중인 192코어 CPU도 시장에 출시될 예정입니다. 앰페어와 퀄컴은 이 협업을 통해 대형 언어 모델(LLM) 인퍼런스를 목표로 하는 앰페어 CPU와 퀄컴 Cloud AI 100 Ultra를 통합한 공동 솔루션을 강화할 것입니다. 위티치는 이 파트너십이 AI 애플리케이션에 최적화된 고효율 CPU를 만드는 데 대한 의지라고 설명했습니다. "이 솔루션은 고객의 채택을 간소화하고 AI 추론을 위한 혁신적인 기능을 제공할 것입니다,"라고 그는 말했습니다.
성능 향상
12채널 플랫폼의 확장으로 새로운 256코어 앰페어원 CPU가 포함되면서 사용자는 복잡한 설계 없이도 유의미한 성능 향상을 기대할 수 있습니다. 기존의 192코어 모델은 올해 말 출시될 예정이며, 기억 장치의 채널 수가 8개에서 12개로 진화하고 있습니다. 주목할 만한 점은 앰페어의 CPU 기술이 메타의 라마 3(Llama 3)에서 오라클 클라우드(Oracle Cloud)로 이미 활용되고 있다는 것입니다. 라마 3는 128코어 앰페어 알트라 CPU에서 GPU 없이 운영되며, Nvidia A10 GPU 및 x86 CPU 조합과 동등한 성능을 제공하면서도 전력은 3분의 1로 줄입니다.
UCIe 작업 그룹과 경쟁 우위
최근 앰페어는 AI 플랫폼 얼라이언스의 일환으로 UCIe 작업 그룹을 구성하여 CPU의 유연성을 향상시켜 향후 디자인에 고객의 IP를 통합할 수 있게 했습니다. 앰페어는 성능 우위를 강조하며 AMD와 직접 경쟁하고 있습니다. 앰페어원 CPU는 와트당 성능에서 시장을 선도하고 있으며, AMD의 제노아(Genoa)보다 50%, 베르가모(Bergamo)보다 15% 더 뛰어납니다. 데이터 센터에서 인프라를 업그레이드하려는 경우, 앰페어원은 랙당 34% 더 많은 성능을 제공합니다. 새로운 앰페어원 OEM 및 ODM 플랫폼은 앞으로 몇 달 안에 출하될 예정입니다.
또한, 앰페어는 NETINT과 협력하여 Quadra T1U 비디오 처리 칩을 활용하여 OpenAI의 Whisper 모델을 이용한 360개의 실시간 채널 동시 트랜스코딩 및 40개의 스트림에 대한 실시간 자막 생성 솔루션을 개발하고 있습니다. 앰페어는 AI 시대의 컴퓨팅 중심이 되고자 합니다. 최근의 개선 사항으로는 메모리 태깅, QOS 강제, 메쉬 혼잡 관리 등의 기능이 포함되며, FlexSKU 기능이 도입되어 고객이 스케일 아웃 및 스케일 업 사용 사례 모두에 동일한 SKU를 활용할 수 있게 됩니다.
오라클과의 협력을 통해 앰페어는 경쟁 Nvidia 솔루션이 필요로 하는 전력의 3분의 1만으로 운영 비용을 28% 절감하는 데 성공했습니다. 이 방법을 통해 사용자는 15% 적은 서버, 33% 적은 랙 공간 및 35% 줄인 전력을 사용하여 AI 컴퓨팅에서 효율성과 성능을 동시에 유지할 수 있습니다.