2026年基于大模型、SKills 的知识管理

基于大模型、SKills 的知识管理今天不聊新工具 聊点更高级的东西 三个巨佬的知识管理哲学 还有我自己的知识管理及内容生成工作流 Karpathy 昨天 Andrej Karpathy 斯坦福 PhD OpenAI 创始成员 前特斯拉 AI 总监 CS231n 全球最火深度学习课程 缔造者 发了条长推 炸了整个 AI 圈子 这条推文的核心观点是 他现在把大部分 token 预算花在了 操作知识 amp

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



今天不聊新工具,聊点更高级的东西——三个巨佬的知识管理哲学

还有我自己的知识管理及内容生成工作流

Karpathy

昨天 Andrej Karpathy(斯坦福 PhD、OpenAI 创始成员、前特斯拉 AI 总监、CS231n(全球最火深度学习课程)缔造者)发了条长推,炸了整个 AI 圈子。

这条推文的核心观点是:他现在把大部分 token 预算花在了"操作知识"上,而不是"操作代码"。

什么意思?

他搭了一套 LLM 驱动的个人知识库系统,用 Obsidian 做前端,Markdown 做底层格式,LLM 负责一切脏活累活。

整个系统的架构可以拆成五个模块:

🧠 Karpathy 知识库系统:五大模块

1. 数据导入(Data Import)

把各种原始素材——论文、文章、代码库、数据集、图片——统统丢进 raw/ 目录。

用 Obsidian Web Clipper 浏览器插件一键裁剪网页文章为 .md 文件,配合快捷键把相关图片下载到本地。

核心思路:先不管三七二十一,把所有原始材料攒在一起

2. 知识编译(Wiki Compilation)

这是整个系统最核心的一步——让 LLM 把 raw/ 目录里的散碎材料"编译"成一个结构化的维基。

具体做什么?

注意这个词:编译(compile)

Karpathy 用的是编程的隐喻——原始数据是"源码",维基是"编译产物",LLM 就是那个"编译器"

3. 问答驱动(Q&A)

当维基长到足够大(他举例说他某个研究方向的维基有约 100 篇文章、40 万字),就可以开始向 LLM Agent 提各种复杂问题了。

一个关键的发现:他本以为需要搞复杂的 RAG,但实际上 LLM 自己维护的索引文件和摘要就够用了。

在这个规模下,Agent 可以比较轻松地读取所有重要的相关数据。

这点我必须插一嘴——40 万字对现在的长上下文模型来说真不算什么。

Gemini 的百万 token 窗口,Claude 的 200K 上下文,处理这个量级的知识库绑绑有余。

Karpathy 说不需要 RAG,在这个规模下我同意

4. 输出呈现(Output)

Karpathy 不喜欢在终端里看答案

他更倾向于让 LLM 生成 Markdown 文件、Marp 格式的幻灯片、matplotlib 图表,然后在 Obsidian 里直接查看

更聪明的是:他会把输出"归档"回维基,这样每次探索和查询都会"累积"在知识库里,让它越用越富

5. 健康检查(Health Check)

定期让 LLM 对维基做"体检":

他说 LLM 在"建议进一步的问题"这件事上做得相当好。这不就是我们说的 Agent 自主探索 吗?

用一张流程图来理解 Karpathy 的系统:

Lex Fridman:把知识库变成跑步伙伴

Karpathy 发完推,Lex Fridman 秒回——他也有类似的系统。

Lex 的身份不用多介绍了吧?全球最火的 AI 播客主持人,他的 Lex Fridman Podcast 采访过 Elon Musk、Sam Altman、Mark Zuckerberg、Karpathy 本人,以及一堆你叫得出名字的科技大佬

Lex 的设置和 Karpathy 类似,但有几个独特的点:

前端混合体:Obsidian + Cursor(用来编辑 .md 文件)+ 自己 vibe-coded 的网页终端

Lex 不满足于 Markdown 的静态渲染——他经常让 LLM 生成动态 HTML 页面(带 JavaScript),这样他可以对数据排序、筛选,交互式地调整可视化

做播客的知识管理需求:因为播客嘉宾覆盖的领域极广,Lex 的研究兴趣数量和多样性远超普通人。

这种场景下知识库方法的优势更明显——你不可能把所有领域的知识都记在脑子里。

最炸裂的用法——跑步语音播客:Lex 会让系统为特定主题生成一个临时的迷你知识库,加载进 LLM,然后在 7-10 英里的长跑中开启语音模式。

跑步的时候,它就变成了一个交互式播客——他可以随时提问、听答案、深入探讨。

你品品:一个人一边跑步一边跟 AI 讨论量子力学或者神经科学。

知识的摄入方式从"坐着读"变成了"边跑边聊"

kepano:Obsidian 创始人的"冷水"

然后 Obsidian 的创始人 kepano(Steph Ango)出来说话了

他没有否定 Karpathy 的方法,而是提出了一个很微妙的警告:

"我更喜欢我的个人 Obsidian 仓库具有高信号噪声比,并且所有内容都有已知的来源。"

kepano 的核心观点:你的个人笔记库应该是"你"的思想的体现,而不是 AI 的。

他的建议是:

他担心什么?如果人类写的和 AI 写的混在一起太多:

这段话的背后是 kepano 一贯的哲学

他写过一篇很有名的文章叫 "File over app"(文件优先于应用),核心主张是:

如果你希望你的写作在 2060 年甚至 2160 年的电脑上仍然可读,那它最好在 1960 年代的电脑上也能被读取。

他还写过 "Don‘t delegate understanding"(不要把理解力外包)——你可以让 AI 帮你干活,但不能让 AI 替你思考

理解力本身就是你最大的资产

在他的个人 Obsidian 实践中,他甚至直接说:

"有人问我能不能用 LLM 自动化笔记整理,但我不想这么做。我享受这个过程。做这种维护工作帮助我理解自己的模式。"

老章的观点

Karpathy 的方法论是天才级别的,Lex 的应用场景让人拍案叫绝,kepano 的警告确实发人深省

他们三个人讲的是知识管理链路上不同的环节

🔥 我在做的事:补上"最后一公里"

Karpathy 搭的是一个知识积累与检索系统——把数据灌进去,编译成知识,然后查询和输出。

但作为一个每周要输出 3-5 篇技术文章、配套口播视频、社交媒体内容的人,我需要的不只是"积累"和"查询",我需要把知识变成内容产品推出去

这就是我做的事——知识管理的下游:内容生产流水线

zhangAI/ # Karpathy 说的"知识库" ├── 1-Wechat/ # 公众号文章(成品库) │ ├── Archive/ # 已发布文章 │ └── ing/ # 正在写的稿子 ├── .agent/skills/ # 58 个 AI Skill(执行层) │ ├── 1-write_tech_article_pro/ # 技术文章撰写 │ ├── 1-title_generator/ # 标题生成(3种风格) │ ├── 1-video-script-converter/ # 文章→口播稿 │ ├── 1-doubao-tts-voice-clone/ # 口播稿→克隆语音 │ ├── audio-to-video/ # 语音→竖版短视频 │ ├── 1-upload-images-to-picgo/ # 图片→个人图床 │ ├── design_svg_card/ # 知识卡片设计 │ └── …还有 50 多个 ├── Video/ # 视频产物 │ ├── 口播稿/ │ ├── 口播音频/ │ └── 成品视频/ ├── Clippings/ # Karpathy 说的 raw/ 目录 ├── CLAUDE.md # AI Agent 的"操作手册" ├── AGENTS.md # Codex 的上下文配置 └── GEMINI.md # Gemini 的指令文件 

看出区别了吗?

Karpathy 的系统是 raw/ → wiki/ → query——知识的上游

我的系统是 素材 → skills/ → 文章 → 视频 → 社交媒体——知识的下游

它们不是竞争关系,是上下游互补关系

Karpathy 解决的问题是:大量散碎信息怎么变成可查询、可增长的结构化知识? 我解决的问题是:有了知识和选题,怎么高效地变成文章、视频、社交内容?

一篇文章从素材到成品视频,我的 Skill 流水线是这样的:

一条命令"帮我写篇技术文章"触发 write_tech_article_pro Skill,输出 Markdown 成品。然后"转成口播稿"触发 video-script-converter,接着"用豆包转成音频"触发 doubao-tts-voice-clone,最后"音频转视频"触发 audio-to-video

从一篇文章到一条短视频,全程约 8 分钟,传统方式需要 2-3 小时。

所以理想的完整架构,应该是把上下游接起来:

Karpathy 的知识编译层(上游:积累、编译、检索)

 ↓ 老章的内容生产流水线(下游:写作、配音、视频) ↓ 发布 & 多形态分发 ↓ 反馈回知识库(闭环)← 这一步大家都还没完全做好 

这也是我接下来要补的课——给自己的系统加上 Karpathy 式的"知识编译层",让过去写的每一篇文章都成为未来创作的养料。

🧊 关于 kepano 的"污染论"

kepano 担心 AI 生成的内容会"污染"个人知识库

他的解决方案是两个仓库——一个干净的给自己,一个脏的给 AI

这个担心是合理的

不过在我的实际操作中,我用的是另一条路:溯源标记

在我的系统里,每个 Skill 生成的文件都有清晰的来源标记——YAML 头部的 author 字段、文件路径本身(比如 Video/口播稿/ 一看就知道是 AI 转的)、以及 Skill 的执行日志。这样不需要物理隔离,也能知道每一段内容是谁写的、用什么工具写的、基于什么素材写的

两种方案各有道理

kepano 的物理隔离更干净纯粹,适合把 Obsidian 当"思维延伸"的人;

我的溯源标记更灵活,适合人机协作频繁、产出量大的场景

不过 kepano 有句话我是完全同意的——"Don’t delegate understanding"

你可以让 AI 帮你整理知识,但你不能让 AI 替你理解知识

如果你连自己知识库里的内容都没读过、没消化过,那这个知识库再大也不是你的

🚀 Karpathy 最有远见的一句话

Karpathy 整个推文我认为最有远见的一句话:

"随着仓库的增长,自然地也想考虑合成数据生成 + 微调,让你的 LLM ‘知道’数据在其权重中,而不仅仅是上下文窗口。"

这才是真正的终局——从上下文到权重

现在所有的知识管理方案,本质上都是在"上下文工程"的范畴内打转

把知识塞进上下文窗口让 LLM 读取——管你是 RAG 还是直接长上下文

但想象一下:如果你能用自己积累的 40 万字知识库微调一个专属的小模型,让它从骨子里"理解"你的领域知识和思考方式。那就不是"你问它答"了,那是你训练了一个数字分身

📊 三人观点对比

One More Thing

三位巨佬给了我们三个视角:

  • Karpathy 搭了知识管理的上游基建——raw/ → compile → wiki → query
  • Lex 打开了知识消费的新维度——语音对话、动态可视化、运动中学习
  • kepano 守住了最重要的底线——知识库的主人是你,不是 AI

而我在做的事情,是补上下游的最后一公里——把知识变成文章、视频、社交媒体内容,让它流动起来:

积累(Karpathy)→ 消费(Lex)→ 守护(kepano)→ 生产(老章)→ 反哺积累

你的知识管理系统,走到了哪一环?

参考资料:

#知识管理 #Obsidian #Karpathy #LLM #AI写作

小讯
上一篇 2026-04-14 11:45
下一篇 2026-04-14 11:43

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/261217.html