QMD (Quantum Memory Database)是 Shopify 联合创始人兼 CEO Tobias Lütke (Tobi) 开发的本地语义搜索引擎。
核心价值:
实际效果:
底层技术:
核心架构:
前提条件
⚠️ OpenClaw 版本需要 ≥ 2026.2.2
检查你的版本:
如果版本低于 2026.2.2,需要先更新到最新版本。
第一步:安装 QMD
1.1 选择包管理器
推荐使用 Bun(速度更快):
或使用 npm:
或直接运行(无需安装):
1.2 安装支持扩展的 SQLite
QMD 需要支持 vector 扩展的 SQLite。
macOS 用户:
验证安装:
Linux 用户 (Ubuntu/Debian):
验证安装:
Windows 用户:
1.3 验证 QMD 安装
如果显示版本号,说明安装成功。
第二步:配置 OpenClaw 使用 QMD
2.1 找到配置文件
根据你使用的版本和操作系统,配置文件位置:
OpenClaw 用户:
2.2 修改配置
在配置文件中添加或修改以下内容:
配置说明:
💡 提示:所有操作系统的配置内容完全相同,只是文件路径不同
第三步:重启 OpenClaw
所有操作系统使用相同命令:
重启后的行为:
验证 QMD 是否正常工作:
查看 OpenClaw 日志,确认 QMD 后端已启用:
如果看到类似 的日志,说明配置成功。
我在启用 QMD 前后做了对比测试,结果让人惊喜。
场景一:长期会话记忆查询
测试问题:"我们三个月前讨论的那个项目,最后用的什么方案?"
结论:速度快了 20+ 倍,成本降低 200+ 倍,而且不会失败。
场景二:跨文件知识检索
测试问题:"我们之前所有项目用过哪些技术栈?"
结论:速度提升 10 倍,再也没卡死过。
场景三:日常对话
测试问题:"帮我写个函数"
结论:日常使用体验天差地别。
技术深度:为什么上下文变小,速度就快那么多?
大模型的推理时间和输入 token 数量基本成正比关系:
我的极端案例: 那个 20 万 token 的会话,单次请求成本高达 \(6-8,而且基本上都是超时失败,钱白花了。
启用 QMD 后: 无论历史记录有多长,每次只提取最相关的几句话(通常削减 95% 以上)。
✅ 响应快了 5-50 倍 ✅ 成本降低 90-99% ✅ 精准度反而更高(因为噪音少了) ✅ 再也不会因为上下文太长而卡死或超时
全面对比:启用 QMD 前后
必须启用的情况
🔴 会话历史超过 1 万 token(基本上运行一周就会超过) 🔴 经常被慢速响应或卡死困扰(特别是长期会话) 🔴 单次请求成本超过 \)1
Q1: QMD 和传统记忆系统的区别是什么?
传统系统:
QMD 系统:
Q2: QMD 是否安全?
完全安全:
Q3: QMD 的准确率如何?
根据实测数据:
Q4: 如果 QMD 出现问题怎么办?
OpenClaw 有自动回退机制:
Q5: QMD 需要联网吗?
不需要:
Q6: QMD 支持哪些文件格式?
主要支持:
其他格式需要先转换为 Markdown 或文本格式。
Q7: QMD 的性能如何?
非常高效:
Q8: 如何优化 QMD 的性能?
可以调整以下参数:
Q9: QMD 占用多少存储空间?
存储空间取决于:
Q10: 如何卸载 QMD?
如果要卸载 QMD:
推荐阅读
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/237689.html