마이크로소프트의 Orca-Math AI, 대형 모델 대비 10배 뛰어난 성능 제공

학생 및 STEM 연구자들을 위한 흥미로운 뉴스!

수학에 어려움을 겪었던 적이 있거나, 단순히 기술을 향상시키고 싶다면, Microsoft의 환상적인 소식에 주목하세요. Microsoft Research의 수석 연구원 아린담 미트라가 최근 X에서 Orca-Math를 발표했습니다. 이 혁신적인 모델은 프랑스 스타트업 Mistral의 Mistral 7B 변형으로, 수학 문제 해결에 최적화되어 있습니다. 아담한 크기로 효율적인 교육 및 배포가 가능합니다. 이 breakthrough는 Microsoft Orca 팀의 목표인 소형 대형 언어 모델(LLMs)의 성능 향상의 일환입니다.

Orca-Math: 성능과 효율성의 조화

Orca-Math는 복잡한 수학 문제 해결에서 10배 이상의 매개변수를 가진 모델들을 능가하는 인상적인 성과를 거두었습니다. 미트라는 이 모델이 중학생들이 풀 수 있도록 설계된 8,500개의 다양한 수학 문제로 구성된 GSM8K 벤치마크에서 대부분의 7-70억 매개변수 AI 모델에 비해 우수성을 보여주는 차트를 공유했습니다. 특히, Orca-Math는 70억 매개변수를 가진 OpenAI의 GPT-4 및 Google의 Gemini Ultra와 거의 대등하게 경쟁하며, MetaMath(70B) 및 Llemma(34B)와 같은 대규모 모델을 significantly 능가합니다.

Orca-Math 개발: 협력적 접근 방식

Orca 팀은 어떻게 이 성과를 이루었을까요? 이들은 학생 및 교사 AI로 구성된 전문 AI 에이전트의 협업을 통해 20만 개의 수학 문제를 포함하는 새로운 데이터셋을 구성했습니다. 이 데이터셋은 36,217개의 공개 데이터셋을 통해 수집된 문제로, OpenAI의 GPT-4가 제공한 정답을 기반으로 합니다. 이 과정은 Mistral 7B 모델을 사용하여 Orca-Math 개발로 이어졌습니다. 또한, Orca 팀은 더 복잡한 질문 생성을 위해 "제안자 및 편집자" 에이전트 시스템을 구현하여 AI의 학습 세트를 향상시켰습니다.

AI 생성 합성 데이터는 LLM의 능력을 향상시키는 데 있어 귀중한 자원으로 평가받고 있으며, Orca 팀은 "카너먼-트버스키 최적화"(KTO) 방법을 활용해 출력을 평가합니다. 이 방법과 전통적인 감독하의 미세 조정이 함께 사용되어 Orca-Math의 성능을 더욱 정교화했습니다.

오픈 소스 자원: 혁신을 위한 20만 개 수학 문제

Orca 팀은 Hugging Face에서 허가된 MIT 라이센스 하에 20만 개의 AI 생성 수학 문제 데이터셋을 공유했습니다. 이를 통해 스타트업과 기업들은 데이터셋을 탐색하고 혁신하며 상업적 용도로 활용할 수 있는 기회를 얻었습니다.

2023년 6월 GPT-4를 활용한 최초의 Orca 13B 출시에 이어, 2023년 11월 Orca 2가 출시되면서 Orca 가족은 계속해서 발전하며 스마트하고 컴팩트한 버전을 지속적으로 제공합니다. 이러한 발전을 통해 Microsoft는 수학 교육 및 AI 기반 학습 도구의 패러다임을 혁신할 준비를 하고 있습니다.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles