Nvidia, Hugging Face, 및 ServiceNow가 AI 기반 코드 생성을 강화하기 위해 설계된 오픈 액세스 대형 언어 모델(LLM) 모음인 StarCoder2를 출시했습니다. 현재 세 가지 크기로 제공되는 이 모델들은 600개 이상의 프로그래밍 언어로 훈련되었으며, 덜 알려진 언어도 포함되어 있어 기업들이 개발 워크플로 내에서 다양한 코딩 작업을 간소화할 수 있습니다. 이 모델들은 ServiceNow와 Hugging Face의 협력 이니셔티브인 오픈 BigCode 프로젝트의 일환으로 개발되었으며, 코드 생성에 대한 LLM의 책임 있는 사용을 촉진하고 Open Responsible AI Licenses(OpenRAIL) 하에 로열티 없이 제공됩니다.
ServiceNow의 StarCoder2 개발팀 리더인 Harm de Vries는 “StarCoder2는 열린 과학 협력과 책임 있는 AI 관행의 강점을 잘 보여줍니다. 이 최첨단 모델은 개발자 생산성을 높이고 코드 생성 AI에 대한 접근성을 민주화하여 모든 규모의 조직이 비즈니스 잠재력을 최대한 실현할 수 있도록 합니다.”라고 전했습니다.
StarCoder2: 다양한 요구를 위한 세 가지 모델
이전 StarCoder LLM은 80개 프로그래밍 언어로 훈련된 15B-매개변수 모델 하나로 구성되었으나, StarCoder2는 619개 프로그래밍 언어로 훈련된 3B, 7B, 15B의 세 가지 서로 다른 크기를 도입했습니다. 훈련 데이터셋인 The Stack은 이전보다 7배 이상 큽니다.
특히 새로운 훈련 기술이 적용되어 COBOL과 같은 저자원 언어 및 수학적 표현, 프로그램 소스 코드 토론을 이해하고 생성하는 능력이 향상되었습니다. 3B 모델은 ServiceNow의 Fast LLM 프레임워크를 활용하고, 7B 모델은 Hugging Face의 nanotron 프레임워크를 적용했습니다. 두 모델 모두 높은 성능의 텍스트-코드 및 텍스트-워크플로 생성에 최적화되며, 컴퓨팅 요구사항을 최소화합니다. 15B 모델은 Nvidia NeMo 클라우드 네이티브 프레임워크와 Nvidia TensorRT-LLM 소프트웨어를 사용하여 최적화되었습니다.
협력 혁신: ServiceNow, Hugging Face, 및 Nvidia
각 코딩 시나리오에서 모델의 성능은 아직 확인되지 않았지만, 초기 테스트에서는 3B 모델이 원래의 15B StarCoder LLM과 유사한 성능을 보인 것으로 나타났습니다. 기업 팀들은 이러한 모델을 조직 데이터를 활용하여 소스 코드 생성, 워크플로 자동화, 코드 완성, 고급 요약 및 스니펫 검색과 같은 특정 용도에 맞게 맞춤 설정할 수 있습니다.
모델의 광범위한 훈련은 정확하고 맥락에 맞는 예측을 제공하는 능력을 향상시켜 개발 프로세스를 가속화하고 엔지니어들이 더 중요한 과제에 집중할 수 있도록 합니다. Nvidia의 응용 연구 부문 부사장인 Jonathan Cohen은 “모든 소프트웨어 생태계는 독특한 프로그래밍 언어를 가지고 있으며, 코드 LLM은 업계 전반에 걸쳐 효율성과 혁신의 중요한 발전을 촉진할 수 있습니다.”라고 말했다. “ServiceNow 및 Hugging Face와의 파트너십은 전 세계 커뮤니티에 책임 있는 생성 AI에 대한 더 넓은 접근을 제공하는 안전하고 책임감 있게 개발된 모델을 제공합니다.”
StarCoder2 시작하기
StarCoder2 가족의 모든 모델은 Open RAIL-M 라이센스 하에 로열티 없는 접근을 제공합니다. 지원 코드 및 모델은 Hugging Face에서 다운로드 가능하며, BigCode 프로젝트의 GitHub 저장소에서도 확인할 수 있습니다. 또한 15B 모델은 Nvidia AI Foundation을 통해 접근할 수 있어 개발자들이 브라우저나 API를 통해 직접 실험할 수 있습니다.
StarCoder는 AI 기반 코드 생성에서 중요한 발전을 나타내지만, 이 분야에는 OpenAI의 Codex(즉, GitHub Copilot을 지원), Amazon의 CodeWhisper와 Replit, Codenium과 같은 경쟁자들도 있습니다.