OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1 结尾
编号:ND-20260311-001
版本: 1.0
更新: 2026-03-11
作者: 小瑞
问题背景
今天在 OpenClaw 中新增 LM Studio 本地模型时,发现模型无法正常调用。经过排查,发现是一个容易被忽略的配置问题。
问题现象
配置好 LM Studio 本地模型后,OpenClaw 提示模型调用失败,无法正常响应。
根本原因
baseUrl 配置不完整 —— LM Studio 的 API 地址需要在 URL 后面加上 /v1 后缀。
解决方案
修改 OpenClaw 配置文件 openclaw.json:
1 | |
完整配置示例
1 | |
经验总结
| 要点 | 说明 |
|---|---|
| LM Studio API | 需要 /v1 后缀才能兼容 OpenAI 格式 |
| Ollama | 不需要 /v1 后缀 |
| 本地模型优势 | 无外部 API 依赖,稳定可靠 |
验证方法
配置完成后,可以通过以下命令验证:
1 | |
如果返回模型列表,说明配置正确。
参考资料:
OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1 结尾
https://www.normdist.com/2026/03/11/ND-20260311-001-LM-Studio-baseUrl-v1/