OpenClaw接入OpenRouter免费Qwen3.6plus模型配置教程
目录
OpenClaw接入OpenRouter免费模型的完整步骤:
1. 获取API Key
前往 https://openrouter.ai/ 注册账号,在个人设置中生成API Key,免费模型调用无需充值。
在 OpenClaw 中配置并使用 OpenRouter 免费模型
OpenClaw 作为适配 OpenRouter 生态的 AI 应用,内置了模型选择与接口配置能力,操作核心是指定 OpenRouter 接口 + 选择免费 Qwen 模型,通用操作流程如下:
打开 OpenClaw 配置界面:启动 OpenClaw 后,找到「Settings / 设置」-「Model / 模型」-「API 配置」模块,该模块用于关联外部大模型接口。
配置 OpenRouter 接口参数
- 接口地址:填写 OpenRouter 统一接口地址(与 OpenAI 兼容,默认已适配,无需手动修改,若需自定义则为
https://openrouter.ai/api/v1); - API 密钥:粘贴第一步获取的OPENROUTER_API_KEY;
- 其他配置:保持默认即可(OpenRouter 已做底层优化,无需调整超时、请求头等参数)。
- 接口地址:填写 OpenRouter 统一接口地址(与 OpenAI 兼容,默认已适配,无需手动修改,若需自定义则为
选择 OpenRouter 免费模型:qwen/qwen3.6-plus-preview:free
- 在模型选择列表中,找到「OpenRouter 开源免费模型」分类(或直接搜索模型标识),选中qwen/qwen3.6-plus-preview:free;
- 确认模型参数:该免费模型默认支持100 万上下文窗口、最大输出 32K tokens,支持温度、Top P、种子等参数自定义,可根据需求调整(如编程场景调低温度提升准确性,创意场景调高温度增加多样性)。
保存配置并调用:点击保存后,即可在 OpenClaw 中正常发起请求,所有操作的推理、响应均由 OpenRouter 底层的阿里云国际版节点提供(该节点对该免费模型的可用性为 100%,延迟仅 1.36s,吞吐量 46tps,稳定性拉满)。
添加配置 openclaw.yaml
编辑 ~/.openclaw/openclaw.yaml,加入以下内容:
| |
生效验证
执行 openclaw gateway restart 重启后,运行 openclaw models list 即可看到新增的模型,测试调用:
| |
⚠️ OpenRouter免费模型均有官方速率限制,避免高频连续调用。
qwen/qwen3.6-plus-preview:free 使用说明
该模型是 OpenRouter 目前核心的免费旗舰模型,为通义千问升级版,在 OpenClaw 中使用时有以下关键特性需注意:
- 免费无额度限制:输入 / 输出 tokens 均为 $0 / 百万,无调用次数、流量限制,可无限使用。
- 擅长场景适配:在 OpenClaw 中优先用于编程开发、复杂问题推理、前端开发、智能代理任务,该模型在编程领域排名 OpenRouter 全平台第 3,适配 OpenClaw 的「AI 执行落地」核心定位。
- 支持推理过程可视化:若需查看模型的内部思考步骤,可在 OpenClaw 高级配置中开启
reasoning参数,调用后可在响应结果中查看reasoning_details数组,了解模型的推理逻辑(适合调试、复杂问题拆解)。 - 数据政策说明:该模型会收集提示词和完成结果数据用于模型迭代优化,若有隐私需求,可在 OpenRouter 中配置自定义数据政策,限制数据传输范围。
原文链接:
https://www.17you.com/freeresources/openclaw-openrouter-qwen-free-model-setup/
已复制!
寻找合作和资源
如果你也对文章内容或者分享的资源和机会有兴趣,欢迎联系我。