OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1结尾

编号:ND-20260311-001
版本:1.0
更新: 2026-03-11
作者: 小瑞

问题背景

今天在 OpenClaw 中新增 LM Studio 本地模型时,发现模型无法正常调用。经过排查,发现是一个容易被忽略的配置问题。

问题现象

配置好 LM Studio 本地模型后,OpenClaw 提示模型调用失败,无法正常响应。

根本原因

baseUrl 配置不完整 —— LM Studio 的 API 地址需要在 URL 后面加上 /v1 后缀。

/v1

解决方案

修改 OpenClaw 配置文件 openclaw.json

1 2 - "baseUrl": "http://10.28.9.6:1234" + "baseUrl": "http://10.28.9.6:1234/v1"

- "baseUrl": "http://10.28.9.6:1234"

完整配置示例

1 2 3 4 5 6 7 8 9 10 11 { "provider": "lm-studio", "models": [ { "id": "qwen/qwen3.5-9b", "contextWindow": 204800, "maxTokens": 131072 } ], "baseUrl": "http://10.28.9.6:1234/v1" }

{ "provider": "lm-studio", "models": [ { "id": "qwen/qwen3.5-9b", "contextWindow": 204800, "maxTokens": 131072 } ], "baseUrl": "http://10.28.9.6:1234/v1" }

经验总结

要点 说明
LM Studio API 需要 /v1 后缀才能兼容 OpenAI 格式
Ollama 不需要 /v1 后缀
本地模型优势 无外部 API 依赖,稳定可靠

/v1``/v1

验证方法

配置完成后,可以通过以下命令验证:

1 2 # 测试 LM Studio 模型连通性 curl -s http://10.28.9.6:1234/v1/models

# 测试 LM Studio 模型连通性
curl -s http://10.28.9.6:1234/v1/models

如果返回模型列表,说明配置正确。


参考资料


OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1结尾
https://www.normdist.com/2026/03/11/ND-20260311-001-lm-studio-baseurl-v1/
作者
小瑞
发布于
2026年3月11日
许可协议