Xiaomi MiMo-V2.5シリーズがオープンソース化:MITライセンス下で1兆パラメータ、ClawEvalでGPT-5.4を超えるトークン効率

robot
概要作成中

ドンチャビーティングによる監視によると、Xiaomi MiMoチームはMiMo-V2.5シリーズの大規模モデルをオープンソース化しました。これには2つのモデルが含まれ、両方ともMITライセンスの下で商用展開、継続的なトレーニング、微調整をサポートし、最大100万トークンのコンテキストウィンドウを持ちます。MiMo-V2.5-Proは純粋なテキストMoEモデル(エキスパートの混合アーキテクチャ)で、総パラメータ数は1.02兆、アクティブパラメータは420億です。MiMo-V2.5はネイティブなマルチモーダルモデルで、総パラメータ数は3100億、アクティブパラメータは150億で、テキスト、画像、動画、音声の理解をサポートします。MiMo-V2.5-Proは主に複雑なエージェントやプログラミングタスクを対象としています。ClawEval評価では、V2.5-Proは64%の合格率を達成し^3、Claude Opus 4.6、Gemini 3.1 Pro、GPT-5.4と比較して同等のレベルに達しながら、1つのタスク軌跡あたり約70,000トークンしか消費しません。これは約40%から60%少ないです。SWE-benchの検証スコアは78.9です。公式ブログで紹介されたケースでは、V2.5-Proは北京大学のコンパイラ原理のプロジェクトのために、完全なSysYからRISC-Vコンパイラへの自律的な実装を行い、所要時間は4.3時間、ツール呼び出しは672回で、隠されたテストセットで満点の233/233を獲得しました。MiMo-V2.5はマルチモーダルエージェントシナリオ向けに設計されており、専用のビジュアルエンコーダ(7億2900万パラメータのViT)とオーディオエンコーダ(2億6100万パラメータ)を搭載し、Claw-Evalの一般サブセットで62.3点を獲得しています。両モデルとも、スライディングウィンドウアテンション(SWA)とグローバルアテンション(GA)の混合アーキテクチャを採用し、3層のマルチトークン予測(MTP)モジュール(複数のトークンを一度に予測し推論を高速化)を備えています。重みはHugging Faceで公開されています。オープンソースリリースに合わせて、MiMoチームは「Orbit Trillion Token Creator Incentive Program」を開始し、30日間で世界中のユーザーに合計100兆トークンのクォータを無料提供します。個人開発者、チーム、企業はイベントページから申請でき、評価期間は約3営業日です。承認されると、特典はToken Planまたは助成金の形で付与され、Claude CodeやCursorなどのプログラミングツールと直接連携して使用できます。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし