OpenClaw和Hermes都是通用Agent系统,但侧重点不同。OpenClaw强调本地优先的Gateway控制面,擅长多入口接入和设备协同;Hermes则聚焦学习型执行循环,支持Agent经验沉淀和自我改进。两者在技能体系、记忆方式、安全策略等方面存在差异,选择时需根据实际需求权衡。
最近 Hermes Agent 很火,媒体、Reddit 上"I ditched OpenClaw for Hermes"的帖子接连不断,国内也有不少朋友在问同一个问题:
它们到底是同一类东西吗?Hermes 能直接替代 OpenClaw 吗?
这个问题正好点中了最容易混淆的地方。
先把共识摆出来:OpenClaw 和 Hermes 都属于通用 Agent 系统。它们都不是单点脚本,也不是某个聊天渠道里的 bot。它们都在尝试把模型、工具、会话、记忆、Skills、消息入口和本地运行环境接成一套可以长期使用的系统。
大家觉得它们像,完全正常。它们都聊 Gateway,都聊 Skills,都聊 Memory,都能接聊天入口,也都关心本地化、工具权限和用户数据迁移。
但工程重心完全不同。
OpenClaw 更像一个本地优先的 Agent Gateway,重点是把真实世界的入口、会话、设备和权限接起来。Hermes 更像一个学习型 Agent Runtime,重点是让 Agent 在执行过程中沉淀经验,下次少走弯路。

之前几篇文章里,我们分别梳理过 OpenClaw 的"作业系统"味道,拆过它最容易混的渠道、账号、Agent、会话、记忆五层关系,也拆过 Hermes 的闭环学习循环和源码实现。具体可以看下我们的往期推文。
本文把它们放在同一张思考里。
不是为了吹嘘谁更强更厉害,而是让我们一起来了解和深入分析:这两个通用 Agent 的区别是什么,它们到底在解决哪一层问题。
- • 它们确实是同一大类东西。 OpenClaw 和 Hermes 都可以理解为通用 Agent 系统,都不只是聊天机器人,也不只是工具集合。
- • OpenClaw 的核心资产是 Gateway 控制面。 它把 WhatsApp、Telegram、Slack、Discord、Signal、iMessage、Matrix、Feishu、LINE、WeChat、WebChat 等入口接进来,再用 Gateway 管会话、路由、节点、工具和安全策略。
- • Hermes 的核心资产是学习型执行循环。 它强调 self-improving agent、closed learning loop、自动创建和修补 skills、FTS5 会话搜索、Honcho 用户建模,以及本地、Docker、SSH、Daytona、Singularity、Modal 六种执行后端。
- • 两者都有 Skill,但语义不同。 OpenClaw 更偏"人定义技能,系统负责加载和治理";Hermes 更偏"Agent 做完复杂任务以后,把成功路径沉淀成 procedural memory"。
- • 安全思路不同。 OpenClaw 走信任模型 + 配置审计路线;Hermes 走纵深防御路线,从审批到容器隔离逐层收紧。
- • 迁移能做,但更像低成本试用入口。 Hermes 支持
hermes claw migrate,能导入 OpenClaw 的 persona、memory、skills、allowlist、部分 messaging settings 和 allowlisted secrets。但迁移配置,不等于迁移整套使用方式。 - • 如果你缺的是多入口助理和治理面,OpenClaw 更贴合。 如果你缺的是长期重复任务里的经验沉淀和自我改进,Hermes 更值得试。
OpenClaw 和 Hermes 之所以会被放在一起比较,不是误会。它们确实有相似的系统边界。
一个现代通用 Agent 系统,通常不只是"模型加提示词"。在之前那篇 Harness 文章里,我们把这几层拆开过:
- • LLM 更像引擎;
- • Agent Loop 更像工作节奏;
- • Harness 更像给 Agent 配好的工位、规范、工具链、权限和验收机制;
- • Memory、Skills、Context、工具调用、执行环境,都会影响最后的可用性。
从这个角度看,OpenClaw 和 Hermes 都已经越过了"模型包装器"的阶段。
它们都在做一件更接近真实使用的事:把 Agent 放进一个长期运行的工程环境里。
这也是容易混淆的根源。

它们都是通用 Agent,但厚度长在不同位置。
OpenClaw 把厚度长在入口、控制面和多设备协同上。
Hermes 把厚度长在执行循环、技能沉淀和跨会话经验复用上。
这一点看清楚,后面的架构、安全、迁移和选型都会更容易理解。
很多对比容易卡住,是因为一上来就列功能表。
功能表有用,但容易把人带偏。两个系统都支持聊天入口、工具调用、skills、memory、模型切换,于是看起来像"同类竞品"。
更有用的拆法是把 Agent 系统分成几层:入口、控制面、执行循环、经验层。
OpenClaw 的 README 里有一句话值得留意:“The Gateway is just the control plane — the product is the assistant.” 它不只是在做一个聊天机器人,更像一个本地优先、可接多入口、可接设备节点、可接 WebChat 和 Dashboard 的控制面。

Hermes 的 README 则把自己定义成"The self-improving AI agent"。值得看的地方是 built-in learning loop:从经验中创建 skills,在使用中改进 skills,搜索过去的会话,并逐步构建用户模型。

背后的团队也不同。OpenClaw 由独立开发者 Peter Steinberger 创建,凭借极简安装和多渠道接入快速积累了大量 GitHub Star。不过 Steinberger 今年 2 月加入 OpenAI,项目已交给社区基金会维护,后续的发展节奏还在观察。Hermes 背后是 Nous Research,Hermes 系列模型(Hermes 3、Hermes 4)的缔造者,对模型训练和推理优化有第一手积累,上线不到两个月社区增长很快。
用一句话概括:
OpenClaw 管入口和秩序,Hermes 管执行和经验。
我们之前梳理过,OpenClaw 不只是聊天窗口,它更像一个按会话串行执行的作业系统。你看到的是聊天入口,系统内部跑的是一套消息接入、路由、会话和记忆加载机制。
本文对比的语境下,这个判断仍然成立。
OpenClaw 的定位是 personal AI assistant。你把它跑在自己的设备或服务器上,然后通过熟悉的聊天入口和它交互。
它的渠道列表很长:WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、BlueBubbles、IRC、Microsoft Teams、Matrix、Feishu、LINE、Mattermost、Nextcloud Talk、Nostr、Synology Chat、Tlon、Twitch、Zalo、WeChat、WebChat。代码仓库里还有专门的 macOS menu bar app、iOS/Android node、Voice Wake、Talk Mode、Live Canvas(A2UI)。
这个细节有分量。对很多真实用户来说,Agent 的第一道门槛经常还没到 ReAct,而是这些更朴素的问题:
- • 我能不能从 Telegram 发它?
- • 我能不能从 Discord 群里唤起它?
- • 我能不能让它跑在家里的小机器上?
- • 我能不能让家人、同事、设备节点以不同权限接入?
OpenClaw 的 Gateway 正是在处理这些问题。

它先把入口和控制面做厚,再让 Agent 在这个秩序里工作。
这类系统的难点,不只是发起一次模型调用。更麻烦的是多渠道状态、会话隔离、群聊激活规则、消息分片、凭据存放、配对策略、设备节点权限、WebSocket 控制面、Dashboard,以及一堆看起来不起眼但上线后每天都会碰到的边界条件。
所以把 OpenClaw 简化成"一个工具箱",多少有些低估它了。它更像一个 Agent 版的个人通信与设备控制平面。
更具体的可以了解我们之前整理的文章:
OpenClaw 多 Agent 实战:从"单军作战"到"龙虾军团"
OpenClaw 是怎么工作的?一条消息的旅程讲清楚
深度拆解 Clawdbot(OpenClaw)架构与实现
Hermes 的重心不一样。
它当然也有 CLI 和 Messaging Gateway,也能接 Telegram、Discord、Slack、WhatsApp、Signal 等入口。但如果只从"能接哪些平台"看 Hermes,就会错过它最有意思的地方。
在之前那篇 Hermes 架构拆解里,我们拆过它的几个关键模块:run_agent.py、model_tools.py、skill_manager_tool.py、hermes_state.py。
本文只抓和 OpenClaw 对比最相关的一点:Hermes 把 Agent 的执行过程当成长期资产。
它的 README 里,closed learning loop 被放在非常靠前的位置:Agent-curated memory、autonomous skill creation、skills self-improve、FTS5 session search、Honcho user modeling。
翻成工程语言,大概是四件事:
-
- 当前任务怎么跑,靠 Agent loop 和 tool runtime。
-
- 过去做过什么,靠 session store 和搜索召回。
-
- 哪些流程值得复用,沉淀成 skill。
-
- 用户长期偏好和行为模式,交给 memory provider 和 Honcho 用户建模。
代码里也能看到这条线。run_agent.py 负责完整的 tool calling conversation loop;model_tools.py 负责工具发现和分发;skill_manager_tool.py 开头就写着"Skills are the agent’s procedural memory",允许 Agent 创建、更新、删除 skills,把成功路径变成 reusable procedural knowledge;hermes_state.py 用 SQLite + FTS5 存会话和做全文检索,支持 WAL 模式的并发读写和基于 source tag(cli、telegram、discord 等)的过滤。
Hermes 更关心的问题是:
当它完成了一个复杂任务以后,这段经验会不会消失?下次做同类任务,它能不能少试错?

这套设计想解决的,是一个老问题:
Agent 每次从零开始,成本很高。
如果它已经踩过坑、跑通过流程、修过某个复杂错误,就可以把这条路径保存下来。下一次同类任务,不需要重新"聪明"一次,只要复用之前沉淀过的工作方法。
有 Reddit 用户反馈,Agent 在两小时内自动生成了三份技能文档后,重复性研究任务的速度提升了约 40%。这类数据还需要更多验证,但方向感是清楚的。
它把很多 Agent 产品挂在嘴边的"长期记忆",往 procedural memory 的方向又推了一步。
更具体的可以了解我们之前整理的文章:
Hermes Agent 架构拆解:会复盘、可成长的 Agent,到底怎么实现的?
很多对比会说:OpenClaw 是人工写 Skill,Hermes 是自动生成 Skill。
方向没错,但容易过度简化。
在之前那篇 Anthropic Skills 文章里,我们聊过:Skill 可以从提示词开始,但它更像一个 Agent work unit。它可以是一个目录,里面有 SKILL.md,也可以有参考资料、脚本、模板、资产和踩坑记录。
把这条线放到 OpenClaw 和 Hermes 上,会更容易看懂差异。
OpenClaw 有一套完整的技能体系。代码仓库里已经内置了 50 多个 skill 目录(1password、discord、slack、github、coding-agent、apple-notes、voice-call 等),支持 AgentSkills-compatible skill folders,每个 skill 是一个包含 SKILL.md 的目录。系统按 bundled skills、managed/local skills、personal agent skills、project agent skills、workspace skills 分层,通过加载优先级和 gating 做治理。
- • 哪些技能来自系统;
- • 哪些来自本地用户;
- • 哪些属于某个 workspace;
- • 哪些需要特定环境变量、二进制或配置;
- • 哪些优先级更高;
- • 哪些第三方 skills 要当成外部输入来处理。
Hermes 的 skill 侧重点更像"过程记忆"。
它的 skill_manager_tool.py 开头就写着:Skills are the agent’s procedural memory: they capture how to do a specific kind of task。它们记录的是"怎么做某类具体任务",不是泛泛的偏好事实。系统提示里也会提醒 Agent:完成复杂任务、修复棘手错误、发现非平凡 workflow 后,可以用 skill_manage 把方法保存下来;如果发现 skill 过时或错误,就直接 patch。Hermes 的 skills 目录也预置了 26 个类别(research、software-development、data-science、devops、mlops 等),兼容 agentskills.io 开放标准。
OpenClaw 的 skill 更像团队里的 SOP 库。Hermes 的 skill 更像一个强执行者不断更新的工作笔记。
SOP 库的优点是可控、可审计、适合团队治理。
工作笔记的优点是贴近真实任务、迭代快、能把个体使用经验滚起来。
代价也不同。OpenClaw 的 skill 质量更多取决于人和社区。Hermes 的自动沉淀有想象力,但也需要复看和修剪,否则"经验"也可能变成"惯性错误"。
更具体的可以了解我们之前整理的文章:
Skills 详解:拆一个技能,看 Anthropic 和 OpenAI 的思路差异
Skill 到底是什么:从第一性原理深入剖析 Claude Agent Skills
在之前那篇 AI Memory 综述里,我们把几个词分开过:
- • Context 是这次任务的临时上下文;
- • Knowledge 更偏稳定知识;
- • Memory 会随时间变化,和用户、任务、历史互动相关;
- • Experience 是从原始记录里蒸馏出来的方法和教训。
用这组词再看 OpenClaw 和 Hermes,会更清楚。
OpenClaw 的记忆走"文件即记忆"路线。核心文件包括定义 Agent 性格的 SOUL.md、记录用户偏好的 USER.md、按日期组织的日常日志 memory/*.md,以及精选长期记忆的 MEMORY.md。语义检索工具负责查找,上下文压缩前执行一次静默记忆写入,防止压缩丢信息。更像给 Agent 一个笔记本。
Hermes 的记忆更系统化,分三层:
MEMORY.md +
USER.md) 自动累积,每次对话带上关键信息 技能记忆 从成功任务中学到的解决方案模式 SQLite + FTS5 全文检索,支持 LLM 摘要召回,可搜索、可复用、自我迭代
更像给 Agent 装了一个搜索引擎式的大脑。
所以它们都讲 Memory,但侧重点不同。
OpenClaw 的 Memory 更容易和"身份、会话、工作区边界"放在一起看。
Hermes 的 Memory 更容易和"执行轨迹、搜索召回、Skill 沉淀、用户建模"放在一起看。
更具体的可以了解我们之前整理的文章:
2026 AI Memory 最新综述:从4W分类到单/多智能体记忆机制
安全是容易被略过、但实际影响很大的维度。两个项目在这方面的思路差异很明显。
OpenClaw:信任模型 + 配置审计
OpenClaw 的安全模型是"personal assistant"(one trusted operator),不是多租户共享。SECURITY.md 里写得很清楚:authenticated Gateway callers are treated as trusted operators for that gateway instance。
它提供了 openclaw security audit --deep 命令来扫描网关配置风险,DM pairing、allowlist、sandbox 和 doctor 机制共同构成安全边界。代码仓库里的安全文档非常详细,覆盖了 Workspace Memory Trust Boundary、Plugin Trust Boundary、Temp Folder Boundary、Sub-agent delegation hardening 等多个层面。
不过 OpenClaw 在安全方面的历史不太平静。今年 2 月被曝出 WebSocket Token 泄露漏洞,外部安全团队发现第三方 Skill 存在数据外泄和 Prompt 注入风险,ClawHub 上也发现了一批恶意 Skill。官方的响应和修复速度不慢,但这些事件提醒我们:一个入口足够多、生态足够开放的系统,攻击面也会相应扩大。
Hermes:纵深防御 + 容器隔离
Hermes 在部署层面更强调逐层收紧。它支持六种 terminal backend(local、Docker、SSH、Daytona、Singularity、Modal),其中 NixOS 模式提供了 Namespace 隔离(ProtectSystem=strict)。
安全策略包括:
- • 危险命令审批:终端命令、文件写入等默认需要人工确认,超时未批准自动拒绝
- • 容器隔离:可以把 Agent 的执行环境限制在 Docker 或远程后端里
- • 凭据过滤:防止敏感信息泄露到上下文
- • 上下文注入扫描:检测 Prompt 注入风险
截至目前,Hermes 没有被公开披露过重大安全漏洞。当然,这也和它上线时间更短、用户规模更小有关,不能简单等同于"更安全"。
一句话区分:OpenClaw 更多在"人该怎么管 Agent"这一层做安全,Hermes 更多在"Agent 运行时该怎么被约束"这一层做安全。
更具体的可以了解我们之前整理的文章:
从误删邮箱到 Skill 投毒:OpenClaw 安全到底该怎么做
你的 Moltbot 很可能正在裸奔:安全宝典清单
下面这张表可以当成快速索引。
openclaw onboard --install-daemon ,偏 Gateway 和渠道上手
hermes setup 、
hermes model、
hermes gateway,偏 CLI 和模型配置 模型支持 多 provider,支持 OAuth + API key failover 200+ 模型(OpenRouter、Anthropic、OpenAI、智谱、Kimi、MiniMax 等),一条命令切换 迁移支持 更偏 OpenClaw 自身跨机器迁移 支持从 OpenClaw 导入 persona、memory、skills、allowlist、部分 settings 和 secrets 更适合 多渠道个人助理、设备联动、团队入口治理 长期重复任务、研究工作流、个人经验沉淀、RL 轨迹数据生成
这张表核心只有一句:
OpenClaw 的价值在"接入复杂世界",Hermes 的价值在"沉淀复杂经验"。
安装方式也值得看。
OpenClaw 推荐路径是:
npm install -g openclaw@latestopenclaw onboard --install-daemon
它会引导你设置 Gateway、workspace、channels、skills、模型和守护进程(launchd/systemd user service)。文档里还会让你验证 openclaw gateway status,再打开 dashboard。
这条路径说明 OpenClaw 很关心"长期运行"和"入口可用"。你启动的不只是一段 CLI 会话,更像是在机器上装一个长期运行的 assistant 控制面。
Hermes 的快速安装是:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bashhermes
后续常见命令包括:
hermes model # 选模型hermes tools # 配工具hermes config set # 改配置hermes gateway # 起 messaging gatewayhermes setup # 全量设置向导hermes claw migrate # 从 OpenClaw 迁移hermes doctor # 诊断
它的文档强调模型切换(200+ 模型,一条命令换,不改代码)、CLI 和 messaging 两种入口、skills、memory、MCP、cron 定时任务、六种 terminal backend、RL trajectory 等能力。部署门槛低,$5/月的 VPS 就能跑,Daytona 和 Modal 还支持 serverless 持久化模式,闲时几乎零成本。
Hermes 首先希望你把一个会执行、会记忆、会沉淀经验的 Agent 跑起来,再按需接到聊天平台或远程环境里。
如果你只是想装一个"能在微信和 Telegram 里随叫随到的个人助理",OpenClaw 的上手路径更贴合。
如果你想让 Agent 进入一个长期研发或研究工作流,让它跨会话记住东西、把复杂流程沉淀成技能,Hermes 的路径更贴合。
Hermes 对 OpenClaw 用户的迁移路径做得很直接。
安装 Hermes 后,hermes setup 会自动检测 ~/.openclaw 目录并提供迁移。也可以随时手动执行:
hermes claw migrate # 交互式迁移(full preset)hermes claw migrate --dry-run # 预览会迁什么hermes claw migrate --preset user-data # 不含 secrets 的谨慎迁移hermes claw migrate --overwrite # 覆盖已有冲突
能迁的内容包括:
- •
SOUL.md(persona 文件) - •
MEMORY.md和USER.md - • 用户创建的 skills(导入到
~/.hermes/skills/openclaw-imports/) - • command allowlist(审批模式)
- • 部分 messaging settings(平台配置、allowed users、工作目录)
- • allowlisted secrets(Telegram、OpenRouter、OpenAI、Anthropic、ElevenLabs 等 API Key)
- • TTS assets
- • workspace instructions(
AGENTS.md)

有社区实操记录值得参考:基础迁移跑完以后,Discord、Telegram 这类机器人配置、模型 API 和记忆同步,往往还要单独确认。有用户迁移后发现 Hermes 还没有配置模型,需要额外一步设置 provider 和 API Key。
真实迁移里,至少有几个边界要留意:
- •
--dry-run建议先跑一遍,看看会迁什么; - •
user-datapreset 会排除 secrets,更适合谨慎迁移; - •
fullpreset 会导入 allowlisted secrets,但不会把所有凭据一股脑搬过去; - • WhatsApp 这类二维码配对型渠道仍可能需要重新处理;
- • imported skills 通常要新 session 或重启后才生效;
- • OpenClaw 的 Gateway 工作方式和 Hermes 的 Gateway 工作方式不完全一样,迁移配置不等于迁移架构。

更稳妥的做法:
把迁移当成试用 Hermes 的低成本入口,而不是"一键把 OpenClaw 变成 Hermes"。
可以先迁 user-data,再试一两个重复性强的工作流。如果 Hermes 的 skill 沉淀和 session search 确实帮你减少了重复劳动,再考虑扩大使用范围。
这个问题可以从三个角度想。
第一,你的主要复杂度在哪?
如果复杂度在入口,比如 Telegram、Discord、Slack、WeChat、WebChat、iOS、Android、macOS 节点、群聊、私聊、配对、远程 Gateway,那 OpenClaw 更自然。
如果复杂度在任务本身,比如研究、代码修改、数据分析、日报周报、PR 审查、重复性排障、长链路自动化,那 Hermes 更值得试。
第二,你更担心不可控,还是更担心不成长?
如果更担心不可控,可以先看 OpenClaw 的 Gateway、allowlist、pairing、sandbox、doctor、workspace 边界。
如果更担心 Agent 每次都从零开始,可以先看 Hermes 的 skills self-improve、FTS5 session search、memory provider、Honcho 用户建模。
第三,你是一个人用,还是要带进团队流程?
个人折腾、研究工作流、长任务,Hermes 的成长性更有吸引力。
团队协作、多入口接入、设备联动、权限治理,OpenClaw 的控制面价值更高。
当然,也可以两者都试。
看 Hermes,就看它的学习循环有没有帮你减少重复劳动。
看 OpenClaw,就看它的 Gateway、渠道、会话和设备治理有没有让你的 Agent 更容易进入日常场景。
更直接一点:
我现在缺的,是入口、秩序,还是经验?
坦率说,如果只看概念,Hermes 确实更容易让人多看一眼。
"Agent 从经验里生成技能"这件事,确实切中了当前 Agent 产品的一个痛点:很多 Agent 看起来很聪明,但每次任务都像第一次上班。它能解决问题,却不一定能沉淀下来。
Hermes 把 procedural memory 拉到台前,是一个值得关注的方向。
但如果看真实使用,OpenClaw 也没有那么容易被替代。
多渠道、Gateway、设备节点、DM pairing、Dashboard、workspace、skills precedence、plugins、Voice Wake、Live Canvas、远程访问,这些东西不一定性感,但它们决定了一个 Agent 能不能进入真实生活和真实团队。
所以说"OpenClaw 过时了",可能有些简单了。
我更倾向于这样理解:
OpenClaw 更像是在回答:Agent 如何进入世界。Hermes 更像是在回答:Agent 如何积累经验。
前者解决"我怎么触达它、约束它、让它出现在正确的地方"。
后者解决"它怎么记住做过的事、少重复犯错、把方法沉淀下来"。
更完整的 Agent 系统,最后大概率两边都少不了。
一个只会学习、但入口和权限一团糟的 Agent,不太容易长期跑在真实环境里。
一个入口很全、治理也稳、但每次复杂任务都从零开始的 Agent,用久了也会觉得累。
所以这场对比更有价值的地方,不是告诉大家今天卸载谁、安装谁。
它提醒我们:
Agent 框架的竞争,已经从"能不能调用工具",进入到"能不能管理入口、治理风险、沉淀经验"的阶段。
这也是它们值得放在一起看的原因。
对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?
答案只有一个:人工智能(尤其是大模型方向)
当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右。
再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。


对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。
如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!
下面是我整理的大模型学习资源,希望能帮到你。

扫码免费领取全部内容


从入门到进阶这里都有,跟着老师学习事半功倍。


2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。


【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】


适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
👇👇扫码免费领取全部内容👇👇

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/260962.html