学生とSTEM研究者へのエキサイティングなお知らせ!
数学に苦労したことがある方、あるいはスキルを向上させたい方に、Microsoftから素晴らしいニュースがあります。Microsoftリサーチの上級研究者でオルカAIのリーダーであるアリンダム・ミトラが、数学問題を解くために特化した革新的なモデル「オルカ-マス」を最近発表しました。この新しいモデルは、フランスのスタートアップMistralのMistral 7Bのバリアントであり、コンパクトなサイズで効率的なトレーニングとデプロイメントを実現しています。このブレークスルーは、Microsoftオルカチームが小規模な大型言語モデル(LLM)の能力を高めるという目標の一環です。
オルカ-マス: パフォーマンスと効率の融合
オルカ-マスは、複雑な数学の文章問題を解く際、10倍のパラメーターを持つモデルを上回る印象的な結果を達成しました。ミトラは、オルカ-マスがGSM8Kベンチマークにおいて7億から70億パラメーターを持つAIモデルの中で優位性を示すチャートを共有しました。このGSM8Kは、優秀な中学生が解決できる多様な数学問題8,500問を集めたものです。特に、オルカ-マスの70億パラメーターは、OpenAIのGPT-4やGoogleのGemini Ultraとほぼ同等の競争力を持ち、MetaMath(70B)やLlemma(34B)などのより大きなモデルに対しても大きく優れた性能を示しています。
オルカ-マスの開発: 協力的アプローチ
オルカチームは、どのようにこの偉業を成し遂げたのでしょうか?彼らは、学生や教師のAIを含む専門AIエージェントの協力によって、20万問の数学問題からなる新しいデータセットを作成しました。これらの問題は、オープンデータセットから取得した36,217問の数学問題を基にしており、OpenAIのGPT-4が回答を提供しました。このプロセスは、Mistral 7Bモデルを使用したオルカ-マスの開発に繋がりました。
さらに、オルカチームは「サジェスターとエディター」エージェントシステムを導入し、より複雑な問題を生成することでAIのトレーニングセットを強化しました。arXiv.orgに発表された研究によると、問題の反復的な改善プロセスは、学習時の精度を高める挑戦的な問題の開発に大きく寄与しています。
また、機械生成の合成データは、LLMの能力を向上させ、モデルの停滞に関する懸念を解消する上で非常に貴重であることが証明されています。オルカチームは、「カーネマン・トヴェルスキー最適化(KTO)」手法を活用し、複雑な選好基準よりも出力の desirability(望ましさ)を重視しました。この方法は、従来の監視付きファインチューニングと合わせて、オルカ-マスのパフォーマンスをさらに洗練させました。
オープンソースリソース: 革新のための20万問の数学問題
オルカチームは、彼らのAI生成データセットである20万問の数学問題を、Hugging Face上でMITライセンスの下で無償で提供しています。これは、スタートアップや企業が探索、革新、商業利用を行うための新たな道を開きます。
2023年6月に初代オルカ13Bがリリースされた後(このモデルはGPT-4を指導モデルとして使用)、2023年11月にはオルカ2が続いて公開され、オルカファミリーはさらに拡大し進化を続けています。これにより、より賢く、よりコンパクトなバージョンが一貫して提供されています。
これらの進展により、Microsoftは数学教育とAI駆動の学習ツールの未来を変革する準備が整いました。