AI 칩 제조업체 SambaNova Systems가 Samba-CoE v0.2 대형 언어 모델(LLM)로 중요한 이정표를 발표했습니다. 이 모델은 초당 330개의 토큰을 처리하여 Databricks의 새로운 DBRX, MistralAI의 Mixtral-8x7B, Elon Musk의 xAI Grok-1과 같은 주요 경쟁자들을 초월하는 성능을 보입니다.
특히, 이 성취는 모델의 효율성에 있습니다. Samba-CoE v0.2는 정확도를 희생하지 않고도 높은 속도로 작동하며, 576개의 소켓이 필요한 대안에 비해 단 8개의 소켓만을 요구합니다.
우리의 테스트에서 이 LLM은 놀라운 속도로 반응을 생성했습니다. 예를 들어, 은하수에 대한 425단어의 포괄적인 답변을 위해 단 1초 만에 330.42개의 토큰을 생성했습니다. 양자 컴퓨팅에 대한 질문은 초당 332.56개의 토큰으로 빠른 응답을 이끌어냈습니다.
효율성 향상
SambaNova가 소켓 수를 줄이면서도 높은 비트 전송률을 유지하는 전략은 컴퓨팅 효율성에 있어 중대한 혁신을 나타냅니다. 회사는 LeptonAI와의 협업으로 Samba-CoE v0.3의 출시를 예고하며 지속적인 혁신을 추구하고 있습니다.
이러한 발전은 Samba-1 및 Sambaverse의 오픈 소스 모델에 기반해 독특한 앙상블 및 모델 병합 접근법을 사용하는 데에서 비롯됩니다. 이 방법론은 현재 버전을 지원할 뿐만 아니라, 향후 개발을 위한 확장 가능성을 제공합니다.
GoogleAI의 Gemma-7B, MistralAI의 Mixtral-8x7B, Meta의 Llama2-70B, Alibaba Group의 Qwen-72B, TIIuae의 Falcon-180B, BigScience의 BLOOM-176B 등 다른 모델과의 비교를 통해 AI 환경에서 Samba-CoE v0.2의 경쟁 우위를 강조합니다.
이번 발표는 AI 및 머신러닝 커뮤니티 내에서 효율성, 성능, AI 모델 진화를 둘러싼 논의를 촉발할 것으로 기대됩니다.
SambaNova 배경
2017년 캘리포니아 팔로알토에서 Kunle Olukotun, Rodrigo Liang, Christopher Ré에 의해 설립된 SambaNova Systems는 처음에 맞춤형 AI 하드웨어 칩에 초점을 맞췄습니다. 이후 회사의 사명은 머신러닝 서비스와 2023년 초 도입된 포괄적 기업 AI 교육, 개발 및 배치 플랫폼인 SambaNova Suite를 포함하는 넓은 범위로 확장되었습니다.
올해 초, 회사는 "전문가의 조합" 접근 방식을 통해 50개의 소형 모델로부터 파생된 1조 개의 매개변수를 가진 AI 모델인 Samba-1을 소개했습니다. 하드웨어 중심의 스타트업에서 풀서비스 AI 혁신 기업으로의 전환은 AI 기술을 확장 가능하고 접근 가능하게 만들겠다는 창립자들의 의지를 반영합니다. SambaNova는 2021년 5억 달러 이상의 가치로 시리즈 D 펀딩에서 6억 7천 6백만 달러를 모금하며 Nvidia와 같은 산업 거대 기업에 대한 강력한 경쟁자로 자리잡고 있습니다. 현재 Groq와 같은 다른 전문 AI 칩 스타트업뿐만 아니라 Nvidia와 같은 기존 업체들과 경쟁하고 있습니다.