337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

大模型本地部署,全能選手LM-Studio,你可能只用了一半

0
分享至

關于本地部署大模型和 Ollama 的話題,我之前寫過不少:

為了寫,我又重新玩了一下 LM Studio —— 這個本地大模型的"全能選手"


LM Studio 主界面

說實話,我之前對 LM Studio 的印象還停留在"點一下就能跑模型的桌面APP"。但在 0.4 版本之后,它已經進化成了一個完整的本地 AI 開發平臺,很多隱藏用法很多同學可能都不知道。

簡介

LM Studio 是一款支持在本地運行 AI 大模型的工具,支持 Mac、Linux 和 Windows 全平臺。和 Ollama 不同,LM Studio 自帶一個漂亮的圖形界面,入門門檻極低——下載、搜索模型、點擊運行,三步搞定。


LM Studio 主界面

目前支持的主流模型相當多:gpt-oss、Qwen3、Gemma 3、DeepSeek 等等,基本上 Hugging Face 上熱門的 GGUF 和 MLX 模型都能跑。

但今天我不想聊桌面端怎么點點點,那些是給新手看的。我想重點聊聊 LM Studio 那些真正硬核、但被大多數人忽視的用法。

0.4 版本:全面進化

1 月,LM Studio 發布了 0.4.0 大版本更新,這不是一個小修小補的版本,而是一次架構級的重構。

核心變化有四個:


llmster 無頭部署模式

1. llmster:無 GUI 的守護進程

這是 0.4 最炸裂的更新。LM Studio 把 GUI 和核心推理引擎拆開了,推出了llmster—— 一個可以脫離桌面界面獨立運行的守護進程

什么意思?就是你現在可以把 LM Studio 的核心部署到任何沒有圖形界面的機器上:云服務器、GPU 算力機、CI/CD 流水線、甚至 Google Colab。

安裝一行命令搞定:

# Linux / Mac
curl -fsSL https://lmstudio.ai/install.sh | bash


# Windows
irm https://lmstudio.ai/install.ps1 | iex

啟動也很簡單:

lms daemon up         # 啟動守護進程
lms get # 下載模型
lms server start # 啟動本地 API 服務器
lms chat # 打開交互式聊天

這意味著什么?意味著你家里那臺 4090 機器可以當 API 服務器用了,不需要開桌面、不需要一直盯著屏幕。llmster+lmsCLI,就是一套完整的無頭部署方案。

2. 并行請求 + 連續批處理

之前 LM Studio 同時只能處理一個請求,后面的排隊

0.4 之后,基于 llama.cpp 2.0 的連續批處理實現,支持同一模型的多個并發推理請求

加載模型時有兩個新選項:

  • Max Concurrent Predictions:設置最大并發請求數(默認 4)

  • Unified KV Cache:統一 KV 緩存,硬件資源不會按請求硬分區,幾乎不增加內存開銷

對于需要對外提供 API 服務的場景,這個能力直接讓 LM Studio 從"玩具"變成了"生產工具"

3. 全新的有狀態 REST API:/v1/chat

這個端點和傳統的 Chat Completions 不一樣。/v1/chat有狀態的:你發一條消息,會拿到一個response_id,下次請求把previous_response_id帶上就能繼續對話。

這樣的好處是:

  • 每次請求體很小,不用來回傳整個聊天記錄

  • 方便構建多步驟工作流

  • 響應自帶 token 統計和速度數據(tokens in/out、首 token 時間等)

  • 還能通過 permission keys 訪問本地 MCP 工具

4. UI 大刷新

聊天導出(PDF/Markdown/純文本)、分屏視圖、Developer Mode、應用內文檔——這些都是錦上添花,但確實讓整個用戶體驗上了一個臺階。


聊天導出功能 核心:LM Studio 不為人知的開發者用法

好,下面進入今天的重頭戲

大部分人只把 LM Studio 當個聊天工具,但它其實提供了一整套開發者生態

用法一:OpenAI 兼容 API —— 不改代碼,換個 URL 就行

這是我覺得最實用的功能之一

LM Studio 提供了完整的 OpenAI 兼容端點:

端點

功能

/v1/models

列出可用模型

/v1/responses

Responses API(Codex 也用這個)

/v1/chat/completions

傳統的 Chat Completions

/v1/embeddings

文本嵌入

/v1/completions

文本補全

啥意思呢?你現在用 OpenAI SDK 跑的代碼,只需要改一行 base_url,就能切到本地模型

Python 示例:

from openai import OpenAI

client = OpenAI(
base_url="http://localhost:1234/v1"
)

response = client.chat.completions.create(
model="use the model identifier from LM Studio here",
messages=[{"role": "user", "content": "Say this is a test!"}],
temperature=0.7
)

TypeScript 示例:

import OpenAI from 'openai';


const client = new OpenAI({
baseUrl: "http://localhost:1234/v1"
});

cURL 也一樣:

curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-oss-20b",
"messages": [{"role": "user", "content": "Hello!"}],
"temperature": 0.7
}'

這對開發者來說太友好了

你寫好的 Agent、RAG 應用、AI 工作流,測試階段完全可以用本地模型跑,零成本。上線時再切回 OpenAI 或 DeepSeek 的 API

甚至連 OpenAI 的 Codex 都支持直接對接 LM Studio

用法二:Anthropic 兼容 API —— Claude Code 也能白嫖

這個就更騷了。從 0.4.1 開始,LM Studio 還提供了Anthropic 兼容的/v1/messages端點

什么意思?Claude Code 不需要用 Anthropic 的 API Key 了,直接指向 LM Studio 就行!

三步搞定:

第一步:啟動 LM Studio 的本地服務器

lms server start --port 1234

第二步:設置環境變量

export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio

第三步:運行 Claude Code

claude --model openai/gpt-oss-20b
Claude Code 配合 LM Studio 使用

就這么簡單。你用本地的 GGUF 或 MLX 模型,就能驅動 Claude Code

建議上下文窗口設到 25K tokens 以上,因為 Claude Code 消耗上下文比較猛

如果你在 VS Code 里用 Claude Code,也可以直接在設置里配:

"claudeCode.environmentVariables": [
{
"name": "ANTHROPIC_BASE_URL",
"value": "http://localhost:1234"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "lmstudio"
}
]

支持的功能也很完整:Messages API、SSE 流式傳輸、Tool Use 都能用

用 Anthropic 的 Python SDK 也可以直接對接:

from anthropic import Anthropic

client = Anthropic(
base_url="http://localhost:1234",
api_key="lmstudio",
)

message = client.messages.create(
max_tokens=1024,
messages=[
{"role": "user", "content": "Hello from LM Studio"}
],
model="ibm/granite-4-micro",
)
print(message.content)

同時兼容 OpenAI 和 Anthropic 兩大 API,這在本地部署工具里幾乎是獨一份

用法三:CLI 工具lms—— 命令行控的福音

LM Studio 自帶命令行工具lms,從 0.2.22 版本就有了。但到了 0.4,CLI 的體驗完全煥然一新

安裝很簡單,會隨 LM Studio 桌面端或llmster一起安裝

npx lmstudio install-cli

常用命令速查:

lms status          # 檢查 LM Studio 狀態
lms server start # 啟動 API 服務器
lms server stop # 停止 API 服務器
lms ls # 列出已下載模型
lms ls --json # JSON 格式輸出(適合腳本處理)
lms ps # 查看當前加載的模型
lms load # 加載模型
lms load -y # 最大 GPU 加速加載,跳過確認
lms unload --all # 卸載所有模型
lms get # 下載模型
lms chat # 交互式聊天(新!)
lms create # 創建 SDK 項目
lms log stream # 實時查看日志
lms runtime survey # 打印 GPU 信息
lms runtime update llama.cpp # 更新推理引擎

重點說下lms chat,0.4 新增的命令。

直接在終端里開聊,支持斜杠命令、思考過程高亮、粘貼大段內容。可用的斜杠命令:/model/download/system-prompt/help/exit

對于喜歡 Terminal 的同學來說,完全不需要打開圖形界面就能完成下載模型 → 加載模型 → 聊天 → 調試 的全部流程。

用法四:原生 SDK —— TypeScript 和 Python 都安排了

除了兼容 OpenAI/Anthropic 的 API,LM Studio 還提供了自己的原生 SDK

TypeScript SDK

npm install @lmstudio/sdk

import { LMStudioClient } from "@lmstudio/sdk";


const client = new LMStudioClient();
const model = await client.llm.model("openai/gpt-oss-20b");
const result = await model.respond("Who are you, and what can you do?");
console.info(result.content);

Python SDK

pip install lmstudio

import lmstudio as lms


with lms.Client() as client:
model = client.llm.model("openai/gpt-oss-20b")
result = model.respond("Who are you, and what can you do?")
print(result)

原生 SDK 的好處是能力更全面:除了聊天和文本生成,還支持 Tool Calling、MCP 支持、結構化輸出(JSON Schema)、Embedding 和 Tokenization、模型管理(加載、下載、列表)等高級功能

LM Studio 的 REST API

lms server start --port 1234

curl http://localhost:1234/api/v1/chat \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $LM_API_TOKEN" \
-d '{
"model": "openai/gpt-oss-20b",
"input": "Who are you, and what can you do?"
}'
用法五:LM Link —— 遠程加載你的模型

這是 LM Studio 最新推出的功能,目前還在 Preview 階段,但思路很超前


LM Link 設備連接示意

LM Link 的核心思想:你可能有好幾臺機器(家里的 GPU 機器、公司顯卡、云服務器),LM Link 讓你在任何一臺設備上,像使用本地模型一樣使用遠程設備上的模型。

  • 基于Tailscale的 mesh VPN,端到端加密,不暴露公網端口

  • 聊天數據保留在本地,重活累活交給遠端的 GPU

  • 連你的localhost:1234接口都通用——也就是說 Codex、Claude Code、OpenCode 這些工具也能通過 LM Link 使用遠程模型

價格方面,免費版支持 2 個用戶、每人 5 臺設備(總共 10 臺),家用和工作都可以

這個功能對多機用戶太香了

比如你家里放一臺 4090 算力機,上班時用 MacBook 通過 LM Link 無縫調用家里的模型

說實話,如果你只是想快速跑個模型聊天,Ollama 的ollama run確實更簡單。但如果你有以下需求,LM Studio 更合適:

  • 需要同時兼容 OpenAI 和 Anthropic 兩套 API

  • 多臺機器之間共享模型資源

  • 需要有狀態的 REST API + MCP 工具調用

  • 想用原生 SDK 做開發

總結

LM Studio 在 0.4 之后,已經不是一個簡單的"本地聊天工具"了。它是一個完整的本地 AI 推理平臺:

  • 桌面端給新手用,CLI + llmster 給開發者用

  • OpenAI + Anthropic 雙兼容,幾乎所有 AI 開發工具都能無縫對接

  • LM Link 打通多設備,遠程模型像本地一樣用

  • 有狀態 API + MCP + SDK,想怎么玩就怎么玩

制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
董璇陪張維伊回老家給公婆掃墓,網友:本人好漂亮,47看著像37

董璇陪張維伊回老家給公婆掃墓,網友:本人好漂亮,47看著像37

老吳教育課堂
2026-04-03 04:51:07
阿拉伯聯合酋長國拒絕伊朗人入境和過境

阿拉伯聯合酋長國拒絕伊朗人入境和過境

一種觀點
2026-04-01 20:00:54
轟94+31+15!四巨頭爆錘黃蜂,哈登有麻煩了,騎士首輪遇到硬骨頭

轟94+31+15!四巨頭爆錘黃蜂,哈登有麻煩了,騎士首輪遇到硬骨頭

巴叔GO聊體育
2026-04-02 15:18:07
蘋果宣布新品降價!已經購買的用戶可以申請退款

蘋果宣布新品降價!已經購買的用戶可以申請退款

XCiOS俱樂部
2026-04-02 09:26:32
你永遠想不到醫院的八卦能有多炸裂?一件提神醒腦,兩件直接撂倒

你永遠想不到醫院的八卦能有多炸裂?一件提神醒腦,兩件直接撂倒

另子維愛讀史
2026-01-22 18:21:09
太猛了!以色列被炸穿了!

太猛了!以色列被炸穿了!

財經要參
2026-04-02 21:59:32
中國科協就2026年NeurIPS會議再發聲明 ,道歉并不能獲得原諒

中國科協就2026年NeurIPS會議再發聲明 ,道歉并不能獲得原諒

混沌錄
2026-04-01 20:37:11
凌晨發起反擊!200名指揮官剛走進作戰室:數枚導彈就穿窗而入

凌晨發起反擊!200名指揮官剛走進作戰室:數枚導彈就穿窗而入

聚峰軍評
2026-03-31 14:42:18
戰功赫赫的紅軍軍團長,整編時竟無人愿收,主席震怒直言純屬瞎胡鬧

戰功赫赫的紅軍軍團長,整編時竟無人愿收,主席震怒直言純屬瞎胡鬧

磊子講史
2026-03-30 15:41:41
李一桐醫院掛急診背后:娛樂圈這股風氣,該停了!

李一桐醫院掛急診背后:娛樂圈這股風氣,該停了!

歪歌社團
2026-04-03 04:38:59
惹怒中國,后果嚴重!剛硬氣沒幾天,就求著中國“再考慮考慮”!

惹怒中國,后果嚴重!剛硬氣沒幾天,就求著中國“再考慮考慮”!

金哥說新能源車
2026-04-02 19:39:51
彈幕太下頭!大司馬觀眾瘋狂喊話女銷售:露腿就下單

彈幕太下頭!大司馬觀眾瘋狂喊話女銷售:露腿就下單

游民星空
2026-04-02 21:19:50
福建省委組織部公示后,他任正廳級新職

福建省委組織部公示后,他任正廳級新職

金臺資訊
2026-04-02 17:16:06
對安世中國損招用盡后,荷蘭人突然發現,自己已被自己逼上了絕路

對安世中國損招用盡后,荷蘭人突然發現,自己已被自己逼上了絕路

孤單是寂寞的毒
2026-04-03 00:58:27
68歲陳忠和近況:四口之家很幸福,女兒系前妻生,趙蕊蕊常去探望

68歲陳忠和近況:四口之家很幸福,女兒系前妻生,趙蕊蕊常去探望

白面書誏
2026-03-21 16:13:21
米體:無緣世界杯后,意大利足協直接經濟損失超3000萬歐

米體:無緣世界杯后,意大利足協直接經濟損失超3000萬歐

懂球帝
2026-04-02 16:26:18
伊朗外長:霍爾木茲海峽“完全開放” 僅對參與對伊朗戰爭的各方關閉

伊朗外長:霍爾木茲海峽“完全開放” 僅對參與對伊朗戰爭的各方關閉

財聯社
2026-04-01 02:16:06
有沒有人敢爆自己的瓜?網友:確定玩這么大嗎?

有沒有人敢爆自己的瓜?網友:確定玩這么大嗎?

夜深愛雜談
2026-02-18 20:55:58
伊朗政權絞死兩名人民圣戰支持者

伊朗政權絞死兩名人民圣戰支持者

一種觀點
2026-03-30 15:51:17
國務院國資委:高質量開展國有企業一線擴崗增招專項行動

國務院國資委:高質量開展國有企業一線擴崗增招專項行動

中國網
2026-04-02 12:16:16
2026-04-03 09:23:00
Ai學習的老章 incentive-icons
Ai學習的老章
Ai學習的老章
3303文章數 11122關注度
往期回顧 全部

科技要聞

戰火燒向科技公司!亞馬遜中東云計算中心遭襲

頭條要聞

被中國外交部揭底的日本極右翼分子身份披露

頭條要聞

被中國外交部揭底的日本極右翼分子身份披露

體育要聞

邵佳一的改革,從讓每個人踢舒服開始

娛樂要聞

《浪姐》人氣榜出爐!曾沛慈斷層第一

財經要聞

全球石油危機或將蔓延

汽車要聞

軸距2米7/后排能蹺腿 試駕后驅小車QQ3 EV

態度原創

旅游
時尚
游戲
手機
公開課

旅游要聞

深圳一網紅公園緊急閉園!一度大批游客涌入,官方:整改15天

為什么“這個顏色”成為今年頂流?這樣穿好看又治愈

《生化危機9》新Mod 格蕾絲穿謝娃比基尼服裝

手機要聞

價格壓不住了!驍龍8E6成本大漲:迭代旗艦起步價超5000元

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版