OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1 结尾

编号:ND-20260311-001
版本: 1.0
更新: 2026-03-11
作者: 小瑞


问题背景

今天在 OpenClaw 中新增 LM Studio 本地模型时,发现模型无法正常调用。经过排查,发现是一个容易被忽略的配置问题。

问题现象

配置好 LM Studio 本地模型后,OpenClaw 提示模型调用失败,无法正常响应。

根本原因

baseUrl 配置不完整 —— LM Studio 的 API 地址需要在 URL 后面加上 /v1 后缀。

解决方案

修改 OpenClaw 配置文件 openclaw.json

1
2
- "baseUrl": "http://10.28.9.6:1234"
+ "baseUrl": "http://10.28.9.6:1234/v1"

完整配置示例

1
2
3
4
5
6
7
8
9
10
11
{
"provider": "lm-studio",
"models": [
{
"id": "qwen/qwen3.5-9b",
"contextWindow": 204800,
"maxTokens": 131072
}
],
"baseUrl": "http://10.28.9.6:1234/v1"
}

经验总结

要点 说明
LM Studio API 需要 /v1 后缀才能兼容 OpenAI 格式
Ollama 不需要 /v1 后缀
本地模型优势 无外部 API 依赖,稳定可靠

验证方法

配置完成后,可以通过以下命令验证:

1
2
# 测试 LM Studio 模型连通性
curl -s http://10.28.9.6:1234/v1/models

如果返回模型列表,说明配置正确。


参考资料


OpenClaw 接入 LM Studio 本地模型:baseUrl 必须是 /v1 结尾
https://www.normdist.com/2026/03/11/ND-20260311-001-LM-Studio-baseUrl-v1/
作者
小瑞
发布于
2026年3月11日
许可协议