Microsofts Orca-Math KI bietet eine zehnmal bessere Leistung im Vergleich zu größeren Modellen.

Spannende Neuigkeiten für Schüler und STEM-Forscher!

Wenn Sie jemals Schwierigkeiten mit Mathematik hatten – so wie ich in meiner Jugend – oder einfach Ihre Fähigkeiten verbessern möchten, hat Microsoft großartige Neuigkeiten für Sie.

Arindam Mitra, leitender Forscher bei Microsoft Research und Leiter der Orca AI-Initiative, hat kürzlich Orca-Math auf X vorgestellt. Dieses innovative Modell, eine Variante des französischen Startups Mistral, ist speziell dafür entwickelt, mathematische Textaufgaben optimal zu lösen. Besonders bemerkenswert ist die kompakte Größe, die eine effiziente Schulung und Bereitstellung ermöglicht. Dieser Durchbruch ist Teil des übergeordneten Ziels des Microsoft Orca-Teams, die Fähigkeiten kleinerer großer Sprachmodelle (LLMs) zu verbessern.

Orca-Math: Leistung trifft Effizienz

Orca-Math hat beeindruckende Ergebnisse erzielt und übertrifft Modelle mit zehnmal so vielen Parametern bei der Lösung komplexer mathematischer Textprobleme. Mitra präsentierte ein Diagramm, das die Überlegenheit von Orca-Math im Vergleich zu den meisten anderen KI-Modellen mit 7-70 Milliarden Parametern im GSM8K-Benchmark zeigt – einer Sammlung von 8.500 unterschiedlichen Mathematikproblemen, die für brillante Mittelschüler konzipiert wurden.

Erstaunlicherweise konkurriert Orca-Math mit seinen 7 Milliarden Parametern nahezu auf Augenhöhe mit größeren Modellen wie OpenAI's GPT-4 und Googles Gemini Ultra, während es deutlich schneller ist als größere Modelle wie MetaMath (70B) und Llemma (34B).

Entwicklung von Orca-Math: Ein kollaborativer Ansatz

Wie hat das Orca-Team dieses Kunststück vollbracht? Sie erstellten einen neuen Datensatz von 200.000 Mathematikfragen durch die Zusammenarbeit spezialisierter KI-Agenten, einschließlich Schüler- und Lehrer-AIs, die die generierten Antworten korrigierten. Dieser Datensatz stammt aus 36.217 Mathematikproblemen aus offenen Datensätzen, wobei die Antworten von OpenAI's GPT-4 bereitgestellt wurden. Dieser Prozess mündete in die Entwicklung von Orca-Math basierend auf dem Mistral 7B-Modell.

Darüber hinaus implementierte das Orca-Team ein System aus „Suggester und Editor“-Agenten, um komplexere Fragen zu erstellen und den Trainingssatz der KI zu erweitern. Laut ihrer Forschung, veröffentlicht auf arXiv.org, trägt der iterative Verbesserungsprozess von Problemen erheblich zur Entwicklung herausfordernder Fragen bei, die während des Lernens die Genauigkeit erhöhen.

Maschinell erzeugte synthetische Daten haben sich als wertvoll erwiesen, um die Fähigkeiten von LLMs zu steigern und Bedenken über die Stagnation von Modellen auszuräumen. Das Orca-Team nutzte die Methode „Kahneman-Tversky Optimization“ (KTO), die sich auf die Bewertung der Attraktivität von Ausgaben konzentriert, anstatt auf komplexe Präferenzkriterien. Diese Methode, zusammen mit traditionellem überwachten Feintuning, verfeinerte die Leistung von Orca-Math weiter.

Open-Source-Ressource: 200.000 Mathematikprobleme für Innovation

Das Orca-Team hat großzügig ihren KI-generierten Datensatz mit 200.000 Mathematikproblemen unter einer permissiven MIT-Lizenz auf Hugging Face zur Verfügung gestellt. Dies eröffnet Startups und Unternehmen die Möglichkeit, den Datensatz zu erkunden, innovativ zu sein und ihn sogar für kommerzielle Zwecke zu nutzen.

Seit der Veröffentlichung des ursprünglichen Orca 13B im Juni 2023, das GPT-4 als Lehrmodell nutzte, gefolgt vom Orca 2 im November 2023, wächst und entwickelt sich die Orca-Familie weiter und bietet kontinuierlich intelligentere, kompaktere Iterationen.

Mit diesen Fortschritten ist Microsoft bereit, die Landschaft der Mathematikausbildung und KI-gesteuerten Lernwerkzeuge zu revolutionieren.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles