2026年OpenClaw 3.8 集成 qmd 记忆存储,踩坑踩麻了!我终于学会了...

OpenClaw 3.8 集成 qmd 记忆存储,踩坑踩麻了!我终于学会了...svg xmlns http www w3 org 2000 svg style display none svg

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 
  
    
     
      
      

最近在研究给 OpenClaw 配置一个更强悍的记忆系统,后面发现 OpenClaw 开始支持 qmd 作为记忆后端,于是自己在本地琢磨了一下,发现配置还是有些门道的,就写篇博客吧。

qmd 是一个本地化的搜索工具,结合了 BM25 全文搜索、向量语义搜索和 LLM 重排序,关键是模型都能本地运行,不需要联网!

  • 设备:Mac mini M4
  • 内存:
  • GPU:
  • 系统:
  • OpenClaw 版本:
  • qmd 版本:

1.安装 bun

qmd 官方推荐用 运行,我刚开始用 安装出现了兼容性问题( 版本),但是目前 qmd 在最新的 中兼容了 的兼容性问题,同学们可以尝试用 装下。

GPT plus 代充 只需 145

2.安装 qmd

 
  

3.下载模型文件

从 HuggingFace 下载官方示例中的 个 GGUF 模型文件,放到 目录:

模型 用途 大小 embeddinggemma-300M-Q8_0.gguf 向量嵌入 ~313MB qwen3-reranker-0.6b-q8_0.gguf 结果重排 ~610MB qmd-query-expansion-1.7B-q4_k_m.gguf 查询扩展 ~1.2GB

虽然官方支持在首次启动 qmd 时自动下载这三个模型,但是国内特别特别慢,即使你配置了代理,也很慢,会一直出现转圈圈处在 的状态,建议直接开代理在网页上下载。

如果你只想用 qmd 的 关键词搜索能力,那么只需要下载第一个模型,但是这也失去了装 qmd 的意义。

4.源码修改与环境变量配置

qmd 官方默认只支持为向量模型指定本地路径,不支持为结果重排查询扩展模型设置,这里我看官方源码,最终找到了可以配置的地方,目前已经提交了 ,看官方是否会合并吧。

修改 qmd 源码,文件路径参考:

通过 进行定位,找到下面这段代码,把我这段覆盖上去就好了。

GPT plus 代充 只需 145

源文件路径可能不一样,注意使用自己本地的路径。

修改完成后,配置环境变量,在 中添加:

 
  

本地的模型位置注意使用自己的,变量名称需要与源码中修改的进行映射,最后执行 让环境变量生效。

5.OpenClaw 配置

大家如果想要自己配置的话,可以参考 OpenClaw 的官方文档 —— Memory 进行配置,这里给一版我的示例。

打开 OpenClaw 的配置文件:

在开始修改前,建议先备份当前的配置文件,然后再开始修改。

5.1.memorySearch

配置 JSON 路径:

GPT plus 代充 只需 145

为了避免 JSON 格式问题,这里提供一个没有注释的版本,内容是完全一致的:

 
  
配置 值 含义 vectorWeight 0.7 向量搜索贡献70%分数 textWeight 0.3 文本搜索贡献30%分数 candidateMultiplier 4 初筛4倍结果再精选 mmr.lambda 0.7 结果多样性权重 temporalDecay 30天 超过30天的记忆分数减半

注意:这个配置在 模式下不生效,只在 模式下生效。

5.2.memory

配置 JSON 路径:

GPT plus 代充 只需 145

为了避免 JSON 格式问题,这里提供一个没有注释的版本,内容是完全一致的:

 
  
配置项 值 说明 searchMode query query=慢(Hybrid) / search=快(BM25) onBoot true 启动时自动更新索引 interval 5m 每5分钟增量更新 debounceMs 15000 文件变化15秒后才触发更新 maxResults 6 返回最多6条结果 timeoutMs 10000 搜索超时10秒 scope allow 允许所有搜索(CLI也能用)

这里说一下搜索模式, 是用扩展模型自动对关键词进行衍生,然后进行混合搜索,最终进行重排序,按得分进行输出,但是如果 PC 性能不行的话,用 模式会很慢。

其次是 模式,就相当于百度的关键词搜索,所以抛开计算性能, 模式是更推荐的,要不然查询扩展的模型相当于没装。

配置方面可以自己看官方文档 memory docx 自由修改,我这里不做过多的叙述了。

配置修改完成后,记得重启网关:

GPT plus 代充 只需 145

6.生成向量嵌入

将你想要构建记忆的存储目录添加到 qmd 中:

 
  

开始构建向量:

GPT plus 代充 只需 145

首次运行会加载模型到 GPU,稍微需要等待一会儿,构建完成后,可以看状态:

 
  

在这里插入图片描述

7.测试搜索

直接使用 qmd 命令进行测试:

GPT plus 代充 只需 145

在这里插入图片描述

 
  

在这里插入图片描述
用 语义搜索时,可以从打印日志中看到,当我输入 关键词,qmd 先调用了语义扩展模型,花了 去进行关键词扩展,然后开始查询构建向量,最终进行重排序,得出结果,按照相关度排序输出结果。

上面是直接通过 qmd 命令去使用了,现在使用 OpenClaw 进行查询:

GPT plus 代充 只需 145

在这里插入图片描述
因为 OpenClaw 的 qmd 搜索模式在配置文件里面指定的是 ,所以这里直接用的就是语义搜索。

如果感觉搜索太慢,可以适当调低下面这两个配置项,JSON 路径引用如下:

 
  

在输出前,会先扩展到 个候选项,同时重排过后最多输出 条记录作为结果。

总体配置到这里就结束了,后面可以自己在 里面写一些规则,控制在哪些时机去写入或者加载记忆。

关于 qmd 使用与配置的更多内容,请参考 Github qmd & OpenClaw Memory Docx ~

8.补充 skill

qmd 版本中出了官方的 skill,可以直接通过下面的命令进行安装:

GPT plus 代充 只需 145

小讯
上一篇 2026-03-15 16:59
下一篇 2026-03-15 16:57

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/237829.html