OpenClaw 调用本地模型 - 配置指南
GPT plus 代充 只需 145🚀 OpenClaw 调用本地 Ollama 模型
本指南详细介绍如何配置 OpenClaw 与本地 Ollama 服务对接,使用 Qwen3.5-0.8B 模型进行 AI 推理。
模型大小~500MBQwen3.5-0.8B-Q4_K_M上下文窗口32Ktokens部署方式本地Ollama + OpenClaw📦 一、Ollama 运行本地模型
步骤 1下载模型文件
选择 Qwen3.5-0.8B-Q4_K_M.gguf 模型文件(约 500MB),可通过以下方式获取:
ollama run qwen3.5:0.8b建议使用工具单独下载 GGUF 文件,速度更快。下载后放到自定义目录如/home/openclaw
FROM /home/openclaw/Qwen3.5-0.8B-Q4_K_M.gguf TEMPLATE """ {{- \(lastUserIdx := -1 -}} {{- range \)idx, \(msg := .Messages -}} }{{ \)lastUserIdx = $idx }}{{ end -}} {{- end }} }<|im_start|>system }{{ .System }}{{- end }} } Tools
You may call one or more functions to assist with the user query. You are provided with function signatures within
XML tags:
{{- range .Tools }} {"type": "function", "function": {{ .Function }}} {{- end }}
For each function call, return a json object with function name and arguments within
XML tags:
{"name":
, "arguments":
}
{{- end -}} <|imend|> {{ end }} {{- range \(i, \) := .Messages }} {{- \(last := eq (len (slice \).Messages $i)) 1 -}} }<|im_start|>user {{ .Content }} } } {{- " "}}/think } {{- " "}}/no_think {{- end -}} {{- end }}<|im_end|> }<|im_start|>assistant }
{{ .Thinking }}
{{ end -}} }{{ .Content }} }
{{ range .ToolCalls }}{"name": "{{ .Function.Name }}", "arguments": {{ .Function.Arguments }}} {{ end }}
{{- end }}}<|im_end|> {{ end }} }<|im_start|>user result {{ .Content }} result<|im_end|> {{ end }} }<|im_start|>assistant }
{{ end -}} {{ end }} {{- end }} """ PARAMETER repeat_penalty 1 PARAME
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/249092.html