OpenClaw + Qmd 配置实战:把记忆成本砍到脚踝

OpenClaw + Qmd 配置实战:把记忆成本砍到脚踝最近给 OpenClaw 接上了 Qmd 做本地语义搜索 Token 账单直接砍了 90 以上 这篇记录一下踩坑过程 方便以后复现 一 Qmd 是什么 简单说 Qmd 是一个跑在你本地的语义搜索引擎 它会把你的 Markdown 笔记转成向量 搜的时候用语义匹配而不是关键词匹配 为什么选它 完全本地 模型下载完就断网能用 和 OpenClaw 官方对接 配置即插即用 响应速度比

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。




最近给 OpenClaw 接上了 Qmd 做本地语义搜索,Token 账单直接砍了 90% 以上。这篇记录一下踩坑过程,方便以后复现。


一、Qmd 是什么

简单说:Qmd 是一个跑在你本地的语义搜索引擎。它会把你的 Markdown 笔记转成向量,搜的时候用语义匹配而不是关键词匹配。

为什么选它:

  • 完全本地,模型下载完就断网能用
  • 和 OpenClaw 官方对接,配置即插即用
  • 响应速度比 OpenClaw 自带的记忆快 5-50 倍

代价:

  • 第一次要下两个模型(加起来 1GB 左右)
  • 需要手动维护索引

二、安装 Qmd

方式一:npm(推荐)

 
     

方式二:Bun(某些环境更顺)

 
     

第一次运行会自动下载:

  • (330MB)
  • (640MB)

下完就离线可用。


三、OpenClaw 配置

  1. 备份原配置
 
      
  1. 修改配置

编辑 ,在 段加:

 
      
  1. 重启生效
 
      

四、初始化索引(关键)

光改配置不够,得手动把现有笔记喂给 Qmd。

 
       

五、验证是否跑通

 
        

看到 就是成功了。


六、Docker 部署注意事项

如果用 Docker 跑 OpenClaw,要进容器装:

 
         

坑点: 容器重启后模型会丢,建议挂卷持久化:

 
         

七、回退方案

如果搞砸了想回默认记忆:

 
          

八、实际效果

改后Token消耗全量加载只加载最相关的6条, 响应时间快 5-50 倍 ,离线可用。


参考

  • OpenClaw 官方 Qmd 文档:docs.openclaw.ai/configurati…
  • Qmd GitHub:github.com/tobi/qmd

小讯
上一篇 2026-03-29 17:23
下一篇 2026-03-29 17:21

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/231709.html