本系列旨在带你探索 Claude Code 那些有一定上手门槛,但一旦掌握,便能极大提升效率的进阶功能。
与官方文档相比,本系列力求:
- 更详尽:保姆级教程,每一步都清晰明了,手把手带你操作。
- 更直观:将核心概念和流程转化为可视化图示,一看就懂。
- 更实用:只分享那些经过验证的、有实际应用价值的功能。
- 更避坑:列出曾踩过的坑,让你少走弯路,使用体验更丝滑。
- 更联动:关联其他功能,教你打出效果拔群的“组合技”。
今天,我们要解锁的核心功能是——记忆管理(Memory Management)。
这项功能可以让 Claude Code 跨越单次会话的限制,真正记住你的项目规范、个人偏好以及工作流程。
在连续的对话和编码任务中,它能够保持惊人的一致性,生成更符合你要求的代码,从而显著提升交互效率和编程体验。
如果你用过早期版本的 ChatGPT,一定有过这样的抓狂体验:每次新开一个聊天窗口,它就变成了一个“全新的”AI。
它完全不记得你是谁,也不记得你们之前聊过什么,你不得不一遍遍地重复你的需求和背景信息。
这种现象源于大语言模型的“无状态性”(Stateless)。
从技术上讲,大语言模型本身并没有我们人类那样的“长期记忆”。为了能够在单次会话中理解上下文,ChatGPT 之类的聊天机器人采用了一种策略:
它们会在你每次发送新消息时,把你和它的历史对话记录一并“打包”起来发送给模型。
这不仅消耗资源,更关键的是,这种“记忆”是临时的,一旦关闭会话窗口,所有上下文都将烟消云散。
为了解决这个痛点,让 AI 更具个性化与实用性,各大厂商开始为它们的聊天机器人注入“记忆”功能。
以 ChatGPT 为例,它的记忆功能分为两种:
- 显式记忆:你可以明确告诉它,“记住,我是一个前端开发者,习惯使用 Vue 框架。”这类信息会被长期保存,就像一份用户档案。
- 隐式记忆:它也会自动从海量对话中提取它认为有用的信息。比如,你经常要求它用 TypeScript 写代码,它就会默默记住这个偏好。
在这过程中,用户始终掌控着自己的数据,可以随时查看、删除或完全关闭记忆功能。
这种通用的记忆功能极大地提升了日常对话的体验。而我们今天的主角 Claude Code,则在此基础上,为开发者量身打造了一套更专业、更精细、更强大的项目级记忆系统。
想象一下这个场景:每次开启新的会话,你都要不厌其烦地告诉 Claude Code:
- “我们项目用的是 TypeScript。”
- “记得格式化代码要用 2 个空格缩进。”
- “运行单元测试的命令是 。”
这样的重复劳动,是不是很低效? 文件正是为了终结这种低效而生的。
简单来说,CLAUDE.md 是一个特殊的配置文件,它会在每次开始新的会话时自动加载。
你可以把它理解为 Claude Code 的“记忆芯片”。所有你想让它在整个项目中始终牢记的规则、信息和偏好,都可以写在这个文件里。
这个文件的格式非常自由,保持简洁易读即可。以下是一些实用的应用方向参考:
1. 常用命令
可以把那些你每天都要敲好几遍的命令记录下来,让 Claude 灵活应用。
2. 核心文件与工具
可以帮助 Claude Code 快速定位项目关键部分,迅速理解代码结构。
3. 代码风格指南
可以确保 Claude Code 生成的代码与你团队的风格保持高度一致,避免后续无尽的格式修改。
4. Git 与仓库规范
可以统一团队的协作流程,减少沟通成本,让代码提交历史清晰明了。
5. 开发环境与依赖
可以让 Claude Code 了解项目的运行环境,避免给出不兼容的建议。
6. 项目的“避坑指南”
可以记录下那些只有项目成员才知道的“坑点”,防止 Claude Code 在代码生成时重蹈覆辙。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

为了满足不同场景的需求,Claude Code 设计了三个层级的“记忆存放位置”。
高层级的配置会优先于低层级的配置被加载。
记忆类型
位置
用途
典型场景
项目记忆项目根目录
团队共享的项目特定指令,应纳入版本控制。
项目技术栈、代码架构、API 规范、常用工作流等。
用户记忆用户主目录
适用于所有项目的个人偏好设置。
你个人的代码风格偏好、习惯使用的快捷命令、自定义工具路径等。
项目记忆 (本地)用于个人在特定项目中的个性化设置,通常不提交到代码库。
存放本地数据库连接信息、沙盒环境的 URL、个人测试数据等。
记忆文件的查找机制
Claude Code 会通过“递归”的方式查找和加载这些记忆文件。
它会从你当前的工作目录开始,一层层向上查找,直到项目的根目录,加载所有路径上遇到的 文件。
比如当你在一个大型项目的子目录 中工作时,系统会同时加载根目录的 和子目录的 以及 。
此外,Claude Code 也会发现当前工作目录下的子目录中嵌套的 文件。但这些文件不会在会话启动时就加载,而是在 Claude Code 需要读取这些子目录下的文件时,才会动态地将对应的记忆包含进来。
理论说完了,让我们动手实践一下吧。
我们将以 Flutter 平台的官方初始模板——一个计数器应用作为演示例子。当你运行 时,得到的就是这个项目。
它虽然简单,但其跨平台的项目结构,为我们演示多层级记忆系统提供了一个绝佳的舞台。
背景知识 1:什么是 Flutter?
给不熟悉的读者简单介绍一下:Flutter 是 Google 开发的一个开源 UI 工具包。它允许开发者通过一套代码(Dart 语言),为移动端(iOS, Android)、Web 端甚至桌面端(Windows, macOS, Linux)构建高性能、高保真的原生应用。
背景知识 2:典型的 Flutter 项目结构
Flutter 项目最显著的特点就是其目录结构,它清晰地划分了跨平台代码和原生平台特定代码:
这个结构天然地需要不同的开发规则:
- 在 目录下,需要遵循 Dart 和 Flutter 的规范;
- 而在 或 目录下,则需要遵循原生平台的开发规范
而这正是 Claude 记忆系统大显身手的地方。
现在,让我们开始为这个 Flutter 项目构建一个记忆系统。
第 1 步:使用/init命令快速初始化
在这个新项目中,你不需要手动创建 文件。只需在对话框中输入 ,Claude Code 就会自动分析你的代码库,帮你生成一个包含常用配置项的基础 文件,非常方便。
第 2 步:使用#符号快速添加记忆
在日常对话中,如果你突然想到一条需要让 Claude 记住的规则,不必特意去打开 文件。
你可以直接在输入框中以 开头输入内容,即可快速添加记忆。
例如,在这个 Flutter 项目中,我们决定采用 作为首选的状态管理方案,以避免滥用 。你可以在对话中立即将此规则存入记忆:
发送后,系统会提示你选择将这条记忆存储到哪个 文件中(项目内存或用户内存)。
小贴士:指令要具体,不要模糊。“使用 2 空格缩进”的效果,远好于“请正确格式化代码”。
第 3 步:建立多层级记忆系统
这是最关键的一步。我们将参考上文的“三层记忆体系”,利用 Flutter 的目录结构,为不同层次和不同平台建立专门的记忆文件
- 用户记忆 ():存放我们的个人 Dart/Flutter 编码偏好,比如:
- 项目记忆 ():存放整个项目共享的核心 Dart/Flutter 规范,比如:
- 子目录记忆 (平台特定规则):在原生代码目录中创建各自的记忆文件。
- 在 中定义 Android 平台的特定规则:
通过这样精细的定义:
- 当 Claude Code 在 目录下工作时,它会遵循你设定的 Dart 规范。
- 而当它需要修改 或 目录下的原生代码时,则会自动切换并遵循对应平台的规范。
因为它在不同的工作目录下,自动加载并应用了最相关的记忆。
你可以随时输入 命令,它会展示当前上下文中已加载的所有记忆文件,方便你进行检查、编辑和整理。
比如,我们在项目根目录下输入 命令,会显示全局和项目级的记忆:
而当我们进入 子目录再输入 时,则会额外加载该目录下的平台特定记忆:
第 4 步:使用@模块化导入
当 文件内容变得越来越多时,维护起来会很麻烦。这时,你可以使用 语法将其拆分,并导入其他文件,保持主文件的简短和整洁。
这个功能非常灵活,支持相对路径和绝对路径,你甚至可以导入用户主目录下的个人配置文件。
小贴士:避免将单个 文件写得过于冗长。一个臃肿的配置文件可能会让 Claude 困惑,甚至导致信息被截断。模块化是**实践。
第 5 步:与团队共享,共同维护
将项目级的 文件提交到 Git 仓库。这样,整个团队都能享受到 AI 编程助手带来的效率提升,并可以共同维护这份“团队知识库”,确保规范的统一执行。
第 6 步:定期审查和更新
项目是不断演进的,代码规范和工具链也可能发生变化。记得定期回顾并更新你的 文件,确保其中的信息不会过时,始终保持其有效性。
组合技巧:使用/compact提炼并固化可复用的工作流
在深入这个技巧前,我们先要理解 Claude 的“工作内存”——上下文窗口。
- 什么是上下文窗口?:它指的是语言模型在生成回复时能“看到”的文本总量,是模型的短期“工作内存”。
- 它是如何工作的?:在单次会话中,你和 Claude 的每一轮对话都会累积在上下文中。对话越长,上下文就越大,呈线性增长。
命令的主要功能是压缩当前的对话历史。当上下文使用量超过 95% 时,Claude 也会自动触发压缩。
然而, 的价值远不止于节省空间。它的核心用途是:将一次成功的交互过程,总结成一个结构化的、方便回顾的工作流程。
我们可以将这个提炼出的工作流程保存成一个独立的 文件,然后在主 中引用它,作为未来实现相似功能的“标准操作流程”(SOP)。
举个例子,在 Flutter 开发中,一个常见的任务就是编写“平台通道 (Platform Channel)”,它允许你的 Dart 代码与原生 Android (Kotlin/Java) 和 iOS (Swift/Obj-C) 代码通信。
假设你刚刚在 Claude Code 的帮助下,成功实现了一个“获取设备电池电量”的平台通道。这个过程涉及在三个不同语言和目录中编写和协调代码,是可以沉淀下来的宝贵经验。
操作步骤:
- 在对话结束后,输入一个带有自定义指令(可选)的 命令:
- Claude 会根据自定义指令的要求调整压缩摘要的方向。
- 我们可以摘取这个总结的关键部分,保存到 文件中。
- 然后,在主 中引用它:
现在,团队里的任何成员在需要创建新的平台通道时,都可以让 Claude Code 参考这份由实战经验提炼出的权威指南,高效、准确地完成任务。
Claude Code 的记忆管理功能,远不止是简单的信息记录。
通过 文件,我们得以将项目规范、团队共识和个人偏好,内化为 AI 助手的工作本能。
这不仅极大地减少了重复沟通的成本,更让 AI 的每一次输出都更贴近我们的实际需求,成为真正懂你的编程伙伴。
现在,就动手为你的项目配置一份 吧!你会发现,一个拥有“好记性”的编程伙伴,将为你的开发工作带来质的飞跃。
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇


2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【】

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/222497.html