메타에서 개발한 오픈소스 대형 언어 모델인 Llama 2가 델 기술 덕분에 기업 채택이 크게 증가하고 있습니다. 델은 Llama 2를 자사의 Generative AI 하드웨어를 위한 검증된 디자인 및 온프레미스 생성 AI 솔루션에 통합한다고 발표했습니다. 이 파트너십을 통해 기업 환경에서 Llama 2에 대한 접근성이 향상되며, 클라우드 의존에서 온프레미스 배포로 전환되는 중요한 계기가 마련되었습니다.
Llama 2는 메타에서 7월에 처음 출시된 이후 Microsoft Azure, Amazon Web Services, Google Cloud 등 주요 클라우드 제공업체에서 지원되고 있습니다. 하지만 델의 접근 방식은 이 오픈소스 LLM을 기업 사용자에게 직접 제공하는 데 초점을 맞추고 있습니다. 델은 고객을 위해 Llama 2를 지원하는 것뿐만 아니라 내부 애플리케이션에도 이 모델을 활용하고 있습니다. 델의 AI 전략 부사장인 맷 베이커는 Llama 2에 대한 지원이 기업 데이터에 AI를 통합하려는 회사의 비전과 완벽하게 일치한다고 강조했습니다. 그는 "대부분의 데이터가 온프레미스에 존재하며, 이 오픈 액세스 모델은 데이터와의 직접적인 통합을 가능하게 합니다."라고 밝혔습니다. 또한 Llama 2 가족은 최대 700억 개의 매개변수를 가지고 있어 강력한 온프레미스 응용 프로그램에 적합하다고 강조했습니다.
델은 Llama 2를 지원하는 것 외에도 다양한 내부 용도로 활용하여 지식 관리 시스템을 강화하는 Retrieval Augmented Generation (RAG) 애플리케이션 개발에 기여하고 있습니다. 델은 생성 AI를 위한 하드웨어와 전문 서비스로 수익을 창출할 계획이지만, 베이커는 Llama 2를 수익화하지 않을 것이라고 분명히 했습니다. 그는 "우리는 Llama 2가 가치 있는 기능이라고 믿으며, 고객이 이를 간편하게 활용할 수 있도록 돕는 것이 목표입니다."라고 덧붙였습니다.
메타의 생성 AI 오픈 소스 책임자인 조 스피삭에 따르면, Llama 2에 대한 델의 지원에 대한 메타의 신뢰는 지난 한 달 동안 약 3천만 번 다운로드된 놀라운 수치로 뒷받침되고 있습니다. Llama 2는 강력한 LLM일 뿐만 아니라, PyTorch 기계 학습 프레임워크를 포함한 광범위한 생성 AI 생태계의 중요한 구성 요소로 자리 잡고 있습니다. 스피삭은 Llama 2의 채택이 클라우드 제공업체가 LLM 최적화를 위해 이를 활용하고, 퀄컴과 같은 하드웨어 파트너와 협력하는 등 AI 생태계의 여러 분야에 걸쳐 있다고 언급했습니다. 델과의 파트너십은 데이터 프라이버시를 중시하는 조직에게 온프레미스 환경에서 Llama 2를 배포할 수 있는 중요한 기회를 제공합니다.
스피삭은 "공공 클라우드를 사용하는 것도 옵션이지만, 데이터 민감성이 우려되는 환경에서 Llama 2를 실행하는 것이 이 열린 모델의 강점입니다."라고 설명했습니다. "Llama 2는 다양한 설정에서 배포할 수 있도록 완벽한 균형을 제공합니다." 델과의 협력은 Llama 개발 커뮤니티가 기업의 요구를 더 깊이 이해하는 데에도 기여할 것입니다. 사용 사례가 늘어남에 따라 Llama의 능력을 최적화하는 데 귀중한 통찰력을 제공할 것입니다. 스피삭은 "델과 같은 파트너와 협력함으로써 우리의 플랫폼이 강화되고, 궁극적으로 Llama 3와 Llama 4와 같은 향상된 버전 개발에 기여하여 더 안전하고 개방적인 생태계를 조성하게 됩니다."라고 결론지었습니다.