ミストラル、コード生成スピードを加速・拡張する新製品「コーデストラル・マンバ」を発表

フランスのAIスタートアップMistralは、先進的なオープンソースAIモデルで知られ、資金力を背景に新たに数学に特化したモデルと開発者向けのコード生成モデルの2つの大規模言語モデル(LLM)を発表しました。これらのモデルは、昨年発表された革新的なMambaアーキテクチャに基づいています。

Mambaは従来のトランスフォーマーアーキテクチャの効率を向上させることを目的としており、注意機構を簡素化しています。この進歩により、Mambaベースのモデルはより速い推論時間を実現し、長いコンテキストのサポートが可能になっており、従来のトランスフォーマーモデルとの差別化を図っています。AI21など他の企業も、このアーキテクチャを利用したAIモデルを発表しています。

Mistralの新しいCodestral Mamba 7Bは、長文入力にも迅速に対応できるよう設計されており、ローカルなコーディングプロジェクトに最適です。Mistralのla Plateforme APIで利用可能で、最大256,000トークンの入力を処理でき、これはOpenAIのGPT-4の2倍の容量です。

ベンチマークテストでは、Codestral MambaがCodeLlama 7BやCodeGemma-1.17B、DeepSeekを上回る結果を示しました。開発者は、GitHubリポジトリとHuggingFaceを介してCodestral Mambaを修正・展開でき、Apache 2.0オープンソースライセンスの下で利用可能です。Mistralは、Codestralの先行バージョンがCodeLlama 70BやDeepSeek Coder 33Bなどの他のコード生成器を上回ったと主張しています。

AIを活用したコード生成やコーディングアシスタントツールは不可欠なアプリケーションとなっており、GitHubのCopilot、AmazonのCodeWhisperer、Codeniumなどのプラットフォームが急成長しています。

Mistralのもう一つの新しいモデル、Mathstral 7Bは、数学的推論と科学的発見に特化しており、Project Numinaとのコラボレーションで開発されました。32kのコンテキストウィンドウを持つMathstralは、Apache 2.0オープンソースライセンスの下で動作し、既存の数学推論モデルをすべて上回る性能を発揮します。特に膨大な推論時間を必要とするベンチマークでは「著しく優れた結果」を提供し、ユーザーはそのまま使用するか、特定のニーズに合わせて微調整することが可能です。

Mistralは、ブログで「Mathstralは専門的なアプリケーションのためにモデルを構築する際の性能と速度のトレードオフの優れた例です。この哲学は、la Plateformeでの強化された微調整機能とともに、我々が取り組んでいるものです」と述べています。

MathstralはMistralのla PlateformeおよびHuggingFaceを介してアクセス可能です。MistralはOpenAIやAnthropicといった業界のリーダーと競い合いながら、最近640百万ドルのSiriーズB資金を調達し、評価額を60億ドル近くにまで引き上げました。投資はMicrosoftやIBMを含むテクノロジー大手から行われています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles