수익 창출을 위한 생성 AI 활용 전략
생성 AI는 산업 전반에 걸쳐 연간 2.6조 달러에서 4.4조 달러의 상당한 ROI 잠재력을 제공합니다. 하지만 상당한 컴퓨팅 자원과 인프라를 필요로 합니다. NVIDIA와 Supermicro의 전문가들이 성공을 위한 필수 사용 사례를 찾아내고 AI 준비 플랫폼을 구축하는 방법을 공유합니다.
지금 무료로 주문형 시청하기
비즈니스 운영에 생성 AI를 도입하는 것은 유익할 뿐만 아니라, 이전 기술보다 훨씬 더 많은 컴퓨팅, 네트워킹 및 저장소 자원을 요구합니다. 데이터를 효율적으로 접근하고, 사전 학습된 모델을 사용자 맞춤화하며, 이를 대규모로 운영하기 위해서는 포괄적인 AI 준비 하드웨어 및 소프트웨어 생태계와 전문 기술이 필요합니다.
업계 전문가의 통찰력
NVIDIA의 수석 제품 마케팅 매니저 Anthony Larijani와 Supermicro의 수석 제품 마케팅 매니저 Yusuke Kondo가 OctoML의 공동 창립자이자 CEO인 Luis Ceze의 진행 아래 생성 AI 활용 전략에 대해 논의합니다. 이들은 핵심 인프라 결정, 작업 부하 고려사항 및 조직을 위한 AI 전략 최적화에 대해 탐구합니다.
인프라 및 작업 부하 조정
조직의 필요에 맞춘 인프라 조정이 중요합니다. Larijani는 "인프라가 지원할 작업 부하를 이해하는 것이 첫 번째 단계입니다. 대규모 기본 모델과 실시간 애플리케이션의 컴퓨팅 요구 사항은 크게 다릅니다"라고 말합니다. 작업 부하를 평가할 때는 확장성을 고려해야 합니다. 일괄 처리 또는 채팅봇과 같은 실시간 상호작용을 위한 잠재적 애플리케이션 수요를 추정해 보세요.
클라우드 대 온프레미스 솔루션
생성 AI 애플리케이션은 종종 확장을 요구하며, 이는 클라우드와 온프레미스 솔루션 간의 논쟁을 촉발합니다. Kondo는 "이는 특정 사용 사례와 요구되는 규모에 따라 다릅니다"라며 클라우드가 확장성 면에서 더 유연하다고 강조합니다. 그러나 온프레미스 솔루션은 예측과 상당한 초기 투자 요구가 필요합니다.
"프로젝트의 잠재적 규모를 평가하세요. GPU 클라우드를 사용하는 것이 자체 인프라 구축보다 비용 효율적인가요?" 그는 클라우드 비용이 감소하면서 컴퓨팅 파워는 증가하고 있다고 언급합니다.
오픈 소스 대 독점 모델
기업 내 맞춤형 전문 모델에 대한 수요가 증가하고 있습니다. Larijani는 검색 강화 생성 기술과 같은 기법이 기업들이 독점 데이터를 효율적으로 활용하도록 하고, 이는 인프라 선택에 영향을 미친다고 강조합니다. 모델 사용자 맞춤화는 훈련 비용과 시간을 줄입니다.
"특정 요구에 맞춰 기본 모델을 미세 조정하면 비용 효율성과 GPU 활용도가 향상됩니다"라고 Kondo가 덧붙입니다.
종합 소프트웨어 스택으로 하드웨어 최적화
하드웨어 최적화는 복잡한 소프트웨어 스택을 포함합니다. Kondo는 "대규모 인프라는 복잡하여 설계 단계에서부터 NVIDIA 전문가와 협력해야 호환성을 보장할 수 있습니다"라고 말합니다.
완전한 AI 소프트웨어 스택 구축은 자원이 많이 소모되기 때문에 NVIDIA는 풀스택 컴퓨팅 기업으로 발전했습니다. NVIDIA AI Enterprise 플랫폼의 일환인 Nemo 프레임워크는 기업들이 대규모 인프라에서 생성 AI 모델을 최적으로 구축, 사용자 맞춤화 및 배포할 수 있도록 돕습니다.
LLM 복잡성 대비 미래 준비
대형 언어 모델(LLM)이 성장함에 따라 에너지 요구도 증가합니다. Kondo는 "GPU의 예상 전력 소비가 급격히 증가하고 있습니다"라며 에너지 효율 최적화를 위한 냉각 솔루션 혁신이 필요하다고 언급합니다. 또한, Larijani는 비용 효율적이고 지속 가능한 배포 효율성을 강화하는 새로운 소프트웨어 개발 기법을 지적합니다.
"모든 비즈니스 규모에 최적화된 시스템 수요가 증가하고 있으며, AI에 대한 새로운 사용 사례가 자주 나타나고 있습니다"라고 그는 말하며 계속적인 소프트웨어 혁신의 필요성을 강조합니다.