大家好,我是袋鼠帝。
前兩天刷 X 的時候,我看到一條日區帖子,上面說目前世界上最受歡迎的模型,是國產的 MiniMax M2.5。
而且它在 OpenClaw 中的使用率排名第一,在 OpenRouter 的總體使用率也是排名第一。
![]()
我第一反應是:真的?國產模型在海外這么吃得開?
有時候我真的,都快被評論區說的不自信了,他們總說國外的是香的,國內的不行。。。很少有評論能全面、客觀的看待國內外模型。
隨后我打開了 OpenRouter 的排行榜看了一眼。
https://openrouter.ai/rankings
![]()
臥槽,還真是!MiniMax-M2.5 在 OpenRouter 的用量可以說一騎絕塵,遠超第二名,甚至是第二名的 1.5 倍還多。
PS:給不了解的朋友科普一下 OpenRouter。它是目前全球最大的 AI API 中轉站,只需一個接口,就能無縫調用全球模型。
所以全世界大量的開發者都在使用 OpenRouter,同時,幾乎所有的 AI 工具也都支持它的接入。
然后我又看了一下openrouter里面專門對openclaw的模型用量的統計,最近30天的排名如下:
![]()
一眼看過去,MiniMax-M2.5并沒有排第一,是吧。
但是別忘了,MiniMax-M2.5是2月13號才發布的,所以我們得從13號開始統計才公平:
于是我從13號開始查看數據,并錄了個屏丟給Gemini分析。
最后得出結論,MiniMax-M2.5確實是openclaw用量第一的大模型:
我自己也看了一下,最近10天左右,MiniMax-M2.5每天的使用量幾乎都是第一
![]()
值得一提的是,OpenClaw 的創造者 Peter Steinberger 也在推文中多次安利 MiniMax-M2.5,可以說是非常推崇了。
![]()
MiniMax-M2.5 是 MiniMax 在除夕前剛發布的最新開源模型。
不過那會兒 AI 圈實在太卷了,神仙打架,又臨近過年,所以我一直沒來得及好好體驗和實測。
趁這幾天得空,我立馬把它接入了 Claude Code 和我的 OpenClaw。
深度體驗了幾天之后,我不得不承認,它是真有東西。
在分享我這幾天用它開發的案例之前,我還是先帶大家看看 MiniMax-M2.5 到底升級了什么,有哪些參數值得我們關注(省流版)。
M2.5 這次主打的是"真實世界工作"。
它在編程、工具調用、搜索以及辦公等生產力場景,都達到甚至刷新了行業的 SOTA(當前最高水平)。
![]()
比如在極其考驗代碼解決實際問題能力的 SWE-Bench Verified 榜單上,它拿到了 80.2% 的高分;
在多語言相關的任務 Multi-SWE-Bench 上,更是達到了 51.3%,位列第一。
在網頁檢索和工具調用的 BrowseComp 評測中,也取得了 76.3% 的好成績。
最讓我心動的是它的速度和成本。
M2.5 優化了模型對復雜任務的拆解能力,也降低了思考過程中的 token 消耗。
在 SWE-Bench Verified 測試中,M2.5 比上一個版本 M2.1 完成任務的速度快了 37%。
在 100 token/s 的情況下,M2.5 連續工作一小時只需花費 1 美金;在 50 token/s 的情況下,只需要 0.3 美金。
這讓無限運行復雜 Agent 在成本上變得更可控。
對于每天瘋狂消耗 Token 的開發者來說,簡直是福音。
一、 算力自由:Coding Plan極速版
由于Claude Code和OpenClaw都是token消耗大戶。
特別是 OpenClaw,目前的上下文管理做得還比較糙,經常把一堆沒用的歷史記錄帶進去,一跑起來花Token 如流水..
在接入 Claude Code 和 OpenClaw 之前,我果斷去開了 MiniMax 的 Coding Plan。
https://platform.minimaxi.com/subscribe/coding-plan
本來我最開始開的是 Max 套餐,也就是 119 元/月的那個。
![]()
但后來我翻 MiniMax 文檔的時候發現了一個事兒:
![]()
我之前一直擔心極速版的 M2.5-highspeed 是不是為了速度閹割了智商。
沒想到是能力不變,速度提升 。
對于我來說,時間就是金錢,OPC(一人公司)太需要效率了。
好在支持直接補差價升級。因為我已經用了幾天 Max 套餐,所以補了 95 塊錢的差價,直接切到了極速版訂閱。
![]()
換上 MiniMax-M2.5-highspeed 之后,那個感覺真爽!
本來原套餐里的 M2.5 速度就不慢,但換上 highspeed 版本后,能非常直觀的感受到變快。
我的體感是,簡單任務的生成速度快了 1.5 倍,復雜推理和重構代碼的任務快了 2 倍左右。
二、實戰:Claude Code+M2.5
先說說接入 Claude Code 這塊。
我這個人比較懶,現在已經不想手動去敲命令安裝 Claude Code 和配置模型。
于是,我先直接把我的 OpenClaw 模型換成了 MiniMax-M2.5,然后找到了 MiniMax 的 Claude Code 官方接入文檔。
https://platform.minimaxi.com/docs/coding-plan/claude-code
我把文檔直接丟給龍蝦(OpenClaw),對它說:幫我照著這個文檔,把 Claude Code 安裝好,并配置好模型。
搭載M2.5的龍蝦很快就把 Claude Code 安排明白了。它還順便根據文檔的推薦,幫我安裝了 cc-switch。
![]()
PS:cc-switch 是一個開源項目,專門用來給各種 AI 工具一鍵切換模型的。目前在 GitHub 上已經有 24K Star 了,非常火。
我看了一下官方文檔,MiniMax 的 API 也支持圖像理解和搜索 MCP,隨即也把它接了進去。
![]()
這個安裝,我同樣是把網頁丟給了搭配M2.5的Claude Code。
很快就搞定了
![]()
萬事俱備,該干活了~
我這兩天用Claude Code + M2.5開發了個「知網論文引用采集插件」
起因是朋友最近在寫碩士論文,他跟我瘋狂吐槽知網的反人類設計:
下載完 PDF,回頭寫參考文獻還得重新搜一遍找引用格式,有幾篇論文引用,就要回頭找幾遍。
![]()
最終順利用M2.5,獲得了朋友的認可
![]()
如果是幾十篇論文,每一篇論文都要重新打開知網,找到那篇論文的頁面,找到引用,再復制到自己論文里面,確實是一項還挺麻煩的機械性工作。
M2.5 具備強大的編程能力(像架構師一樣思考)和復雜的Web搜索、Excel處理能力。
于是讓它幫我做一個知網收集文獻引用的插件,省去這種煩惱
M2.5內化了spec能力,會先以架構師的視角主動拆解功能、結構,進行設計,并指定計劃。
簡單來說,Spec 能力就是先畫圖紙再施工的全局規劃能力:
以前的 AI 聽到需求往往就直接盲目敲代碼,遇到復雜任務很容易爛尾。而具備 Spec 能力的 AI 就像一位經驗豐富的架構師,在真正動手前,會先把功能怎么拆、邏輯怎么 連、界面長什么樣都提前盤算清楚,想明白了再動手寫代碼。
這樣更容易一次性開發成功,開發的項目也更規范,更利于后續維護和迭代
M2.5把模塊劃分為四個,分別是
1. manifest.json - 插件配置文件(MV3)
2. content.js - 內容腳本,負責DOM監聽和引文提取
3. popup.html - 彈窗界面
4. popup.js - 彈窗邏輯(導出CSV、清空記錄)
考慮得也很全面
![]()
據說M2.5在Word、PPT、Excel等等辦公高階場景的能力獲得了顯著提升,今天一看,果然如此。
這絕對是挨過業務毒打的老手才有肌肉記憶:
![]()
確認架構、計劃沒問題后,我讓它開始動手寫代碼。
解決了幾個關鍵的bug后,M2.5就做出來了我的理想版本。
點開文獻,就能看見它給我加的按鈕,點擊按鈕提示成功
![]()
![]()
具體的插件頁面,M2.5設計得不錯,完全滿足需求
![]()
點擊導出CSV總表就ok啦
![]()
有需要這個知網插件的朋友,可以在我公眾號后臺回復:"知網插件" ,即可免費獲取安裝包。
嘗到了甜頭之后,我又用它搞了幾個實用的項目。
我最近經常用「番茄小說」看書,每當看到一些很有感觸的句子,我都習慣性地劃線收藏。
但等到寫文章或者做知識管理真正要用的時候,總有種“在哪里看過”,卻死活想不起原話的無力感。
為了找這句話,我不得不再打開番茄,在一堆歷史閱讀記錄和劃線筆記里苦苦翻找,極其割裂且低效。
所以我就想,干脆自己動手量身打造一個專屬于個人的讀書站點。
它是一個沒有平臺壁壘的“定制版閱讀器”,能完美契合我的閱讀習慣。
后續我想看什么書,直接下載導入;看到精彩的段落,我想怎么處理就怎么處理:比如一鍵劃線同步到飛書,或者直接丟進 FastGPT 的個人知識庫,又或者投喂給龍蝦(OpenClaw)當專屬語料。整個閱讀和知識消化的閉環,全部由我隨心所欲地定制。
不過當下最重要的是開發一個MVP出來,得先滿足能讀書的需求。
M2.5 + Claude Code做得很不錯,開發效率快,bug也少,修復起來賊迅速。
看看這架構設計,做得很棒,非常詳細、全面(這架構設計做得,感覺跟Claude Opus很像了):
最后開發出來是一個全棧應用
帶注冊、登錄功能是基操:
![]()
然后有書城,我的書庫,可以自由上傳,刪除圖書。
![]()
![]()
看電子書,肯定要在手機上最方便了,不過一開始不適配移動端
但一句手機端適配,就可以使其調整到位(無需過多廢話)
最后就實現了干凈的雙端適配的UI界面:
第一次在自己開發工具上看電子書,這感覺還真挺奇妙的~
![]()
![]()
然后我又用M2.5嘗試做了一個 markdown 文件閱讀器 。
支持本地 .md 文件的拖拽上傳,能自動渲染出不錯排版。
![]()
最不一樣的地方是,這個閱讀器是個桌面應用,得先下載壓縮包(是的,還順帶開發了個網站,提供應用的下載)。
![]()
下載解壓之后通過雙擊exe打開使用
![]()
搞定這些閱讀類的工具之后,我又做了一個數據可視化網站。
它純粹是我為了處理手頭的數據臨時起意做的。
不過你別說,用M2.5 直出的這個網站麻雀雖小五臟俱全,不僅支持一鍵上傳復雜數據,還能導出 PNG 和 PDF 圖表。
這都得益于模型內化的spec能力,開發前會做好架構,功能設計。
再談談把 M2.5 接入 OpenClaw 后的體驗。
![]()
我把 OpenClaw 的模型換成 MiniMax-M2.5-highspeed 之后,最大的感受是:它變得更加干練了。
以前用其他模型,它在執行任務前,總喜歡啰里啰嗦地說一大堆正確的廢話。
M2.5 在回復上明顯會更言簡意賅,直奔主題。
![]()
而且因為極速版的加持,回復和執行速度也大幅提升。
當我讓它去幫我總結一堆雜亂的網頁資料,或者幫我寫個Skills啥的,在保證準確度的前提下,速度也明顯提升,讓整個 AI 秘書的工作效率倍增。
同時,給大家看一下,在Claude Code和OpenClaw里面,token消耗動輒就百萬、千萬... 但是卻沒有產生額外費用。
![]()
在CC和龍蝦這種吞吐token量賊大的應用里面,M2.5的Coding Plan的價格度速優勢還是很明顯的。
我相信大家是在價格 + 速度 + 性能 三者綜合考量后選擇的MiniMax-M2.5,所以它才會在OpenRouter和OpenClaw成為使用量第一的模型。
「最后」
這幾天密集地體驗下來,我感覺MiniMax-M2.5速度極快,邏輯思維強,同時內化了spec能力,會像架構師一樣思考、設計,這塊能力在開發復雜系統時非常實用。
而且它適配多種開發語言,不會局限于某一兩種常見的語言。
所以開發各種類型的應用,比如Windows桌面應用、瀏覽器插件等,都會更加游刃有余。
可惜的是,它目前還不支持多模態,不支持視覺理解。如果在接下來的版本中能把這塊短板補上,那就真的完美了。
還記得第一次了解 MiniMax,是在 24 年初。
那時候他們團隊找到我,想邀請我參與一個開發者計劃(就是那種可以免費送開發者 token 的活動)。
那時候我只是覺得,這個名字挺有意思。
誰能想到,短短兩年時間,MiniMax 已經從一個籍籍無名的小公司,成長為了中國 AI 界的參天大樹,甚至已經成功上市。
真的,我非常看好國產 AI 的未來,并且在基模上面,反而是這些后起之秀的公司做得更好。
現在國產LLM(大語言模型)和國外LLM的差距已經很小了,甚至很多老外更喜歡使用能力又強,速度又快,價格還便宜的中國模型。
我非常期待國產LLM全面領先的那天~
如果你覺得這篇文章對你有啟發,記得點贊、收藏,分享給身邊有需要的朋友。
讓我們一起,在新的一年里,效率起飛,馬到成功!
我是袋鼠帝,一個致力于幫你把AI變成生產力的博主。我們下期見。
能看到這里的都是鳳毛麟角的存在!
如果覺得不錯,隨手點個贊、在看、轉發三連吧~
如果想第一時間收到推送,也可以給我個星標?
謝謝你耐心看完我的文章~
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.