Mistral, das bestfinanzierte Startup in der europäischen Geschichte, ist ein französisches Unternehmen, das sich auf Open-Source-KI-Modelle und große Sprachmodelle (LLMs) spezialisiert hat. Kürzlich sorgte es mit der Veröffentlichung seines neuen Modells – Mixtral 8x7B – für Aufsehen in der KI-Community. Dieses innovative Modell nutzt einen „Mixture of Experts“-Ansatz, der verschiedene spezialisierte Modelle kombiniert, um in verschiedenen Aufgaben herausragende Ergebnisse zu erzielen.
In einer unauffälligen Art und Weise veröffentlichte Mistral Mixtral 8x7B als Torrent-Link im Internet, ohne begleitende Erklärungen, Blogbeiträge oder Demovideos. Diese Vorgehensweise weckte sofort das Interesse von frühen Anwendern und KI-Influencern auf Plattformen wie X und LinkedIn.
Heute veröffentlichte Mistral einen Blogbeitrag, der die Leistungsbenchmarks von Mixtral 8x7B detailliert beschreibt. Dieses Modell erreicht vergleichbare oder sogar bessere Ergebnisse als OpenAIs proprietäres GPT-3.5 und Metas Llama 2, das zuvor führend im Bereich Open-Source-KI war. Das Unternehmen gab seine Zusammenarbeit mit CoreWeave und Scaleway für technische Unterstützung während der Modelltrainings bekannt und bestätigte, dass Mixtral 8x7B gemäß der Apache 2.0-Lizenz für kommerzielle Zwecke verfügbar ist.
Frühe Anwender haben bereits Mixtral 8x7B heruntergeladen und sind von seiner Leistung beeindruckt. Dank seines kompakten Designs kann es lokal auf Standardgeräten betrieben werden, einschließlich Apple Mac-Computern mit dem neuen M2 Ultra Prozessor.
Besonders hervorzuheben ist, dass Ethan Mollick, Professor an der Wharton School der Universität Pennsylvania und KI-Influencer, auf X feststellte, dass Mixtral 8x7B scheinbar über „keine Sicherheitsvorkehrungen“ verfügt. Diese Eigenschaft könnte Nutzer ansprechen, die von OpenAIs strengen Inhaltsrichtlinien frustriert sind, da sie damit Inhalte produzieren können, die von anderen Modellen oft als „unsicher“ oder NSFW gekennzeichnet werden. Allerdings bringt dieses Fehlen von Sicherheitsvorkehrungen potenzielle Herausforderungen für Politiker und Regulierungsbehörden mit sich.
Sie können Mixtral 8x7B selbst über HuggingFace erkunden (danke an Merve Noyan für den Link). Die HuggingFace-Implementierung umfasst Sicherheitsvorkehrungen, wie beim Testen mit kontroversen Aufforderungen demonstriert – sie lehnte ab, Anleitungen zur Herstellung von Napalm zu geben.
Darüber hinaus entwickelt Mistral bereits leistungsstärkere Modelle. Matt Schumer, CEO von HyperWrite AI, erwähnte auf X, dass das Unternehmen eine Alpha-Version von Mistral-medium auf seiner API gestartet hat, was darauf hindeutet, dass ein größeres, fortschrittlicheres Modell in Sicht ist.
In einer erheblichen finanziellen Stärkung schloss Mistral kürzlich eine Series-A-Finanzierungsrunde in Höhe von 415 Millionen Dollar, die von A16z geleitet wurde, und erreichte eine Bewertung von 2 Milliarden Dollar.