Hermes Agent v0.8.0(73,800+ Stars,2026 年 4 月)支持通过统一的 hermes model 向导配置任意 LLM 提供商,无需手动编辑配置文件。 支持的提供商包括 Nous Portal(原生 Hermes 系列)、OpenRouter(200+ 模型统一接入)、OpenAI、Kimi 和 MiniMax,其中国内模型(Kimi、MiniMax)可直接调用,无需代理。v0.8.0 还新增了 Live Model Switching——在 Telegram/Discord/Slack 等消息平台的对话中,无需重启即可实时切换底层 LLM。

Hermes Agent 通过提供商(Provider)而非单个模型来组织 LLM 配置,每个提供商可挂载多个模型,统一由 hermes model 管理。
可引用结论:Hermes Agent v0.8.0 原生支持 Nous Portal、OpenRouter、OpenAI、Kimi、MiniMax 五类提供商;Kimi 和 MiniMax 为国内直连,其余国际服务需通过代理或国内聚合节点访问(来源:NousResearch/hermes-agent,2026.04)。
hermes model 是 Hermes Agent 的 LLM 配置入口,启动后进入交互式向导,无需手动编辑 YAML 或 JSON 配置文件。
hermes model
向导依次引导完成以下配置:
- 选择提供商:列出所有支持的 Provider,方向键选择后回车确认
- 输入 API Key:粘贴对应提供商的 Key,输入过程不显示(安全输入)
- 选择模型:显示该 Provider 下的可用模型列表,或手动输入模型名
- 确认配置:向导输出配置摘要,按 Y 保存
# 查看所有当前配置(Key 值会被遮码显示) hermes config list # 发送测试消息,验证模型是否正常响应 hermes "你好,测试一下当前模型"
# 直接覆盖某个配置项,无需重跑向导 hermes config set openrouter_api_key “sk-or-新的Key…”
查看当前激活的模型
hermes config list | grep model
Nous Portal 是 Hermes Agent 的官方 LLM 提供商,对 Hermes 系列模型(Hermes 3 70B/405B、Hermes 2 Pro)提供原生函数调用支持,工具调用准确率最高。
# 方式一:通过 hermes model 向导配置(推荐) hermes model
选择 “Nous Portal” → 粘贴 Key → 选择 Hermes 3 模型
方式二:直接设置([Key字段名待核实:以 hermes config list 输出为准])
hermes config set nous_portal_api_key “np-…”
获取 Nous Portal Key:访问 Nous Research 官方 Portal 页面注册并创建 API Key([具体网址待核实:以 hermes model 向导中显示的注册链接为准])。
OpenRouter 是最灵活的配置选项,一个 Key 可以路由至 Claude、GPT-4o、Gemini、DeepSeek 等 200 多个模型,通过切换模型名即可更换底层 LLM,无需重新配置 Key。
# 配置 OpenRouter hermes config set openrouter_api_key “sk-or-…”
切换到不同模型(无需改 Key,只需改模型名)
hermes model
选择 “OpenRouter” → 输入模型名,例如:
deepseek/deepseek-r1 (低成本推理)
anthropic/claude-sonnet-4 (高质量输出)
google/gemini-2.5-pro (长上下文)
OpenRouter 模型名格式:提供商/模型名,例如 openai/gpt-4o、deepseek/deepseek-r1-0528。加 :nitro 后缀选速度最快的节点,加 :floor 选当前最低价。
# 配置 OpenAI API Key hermes config set openai_api_key “sk-…”
选择具体模型
hermes model
选择 “OpenAI” → 选择 gpt-4o / gpt-4o-mini / o1
Kimi(月之暗面)和 MiniMax 在国内无需代理直接访问,适合国内生产环境。
# 配置 Kimi(长上下文,最长支持 128K tokens) hermes model
选择 “Kimi” → 粘贴 moonshot API Key → 选择 moonshot-v1-128k
配置 MiniMax(多模态,支持图文混合输入)
hermes model
选择 “MiniMax” → 粘贴 MiniMax API Key → 选择对应模型
Nous Portal、OpenRouter、OpenAI 在国内均无直连节点,直接配置会出现连接超时。 解决方案是通过兼容 OpenAI/Anthropic 格式的国内 API 聚合节点中转。
Hermes Agent 支持配置自定义端点(Custom Endpoint),只需将 base_url 指向国内节点即可,模型名称保持与官方一致:
# 配置自定义端点(以七牛云 AI 国内节点为例,兼容 OpenAI 格式)
hermes model 向导中选择 “OpenAI Compatible” → 填入端点信息
hermes config set openai_api_key “YOUR_DOMESTIC_API_KEY”
同时配置 base_url(具体字段名以 hermes config list 输出为准)
[base_url 字段名待核实:以 hermes model 向导提示为准]
七牛云 AI(api.qnaigc.com)提供国内直连节点,同时兼容 OpenAI 和 Anthropic 双协议,覆盖 Claude、GPT-4o、Gemini、DeepSeek 等主流模型,新用户有 300 万 Token 免费额度,Hermes Agent 只需维护一个 Key 即可路由多个模型。
Hermes Agent v0.8.0 的 Live Model Switching 允许在 Telegram/Discord/Slack 等消息平台的对话中实时切换底层 LLM,切换后上下文保留,下一条消息立即生效,无需重启 Agent 或重新配置。
这是一项架构改进:每条消息发送前,Hermes Agent 检查当前会话绑定的模型,允许在对话内动态替换。
使用方式(以 Telegram 为例):
# 在 Telegram 对话中输入切换命令 /model openrouter deepseek/deepseek-r1
或切换到 Claude(需已配置兼容端点)
/model openrouter anthropic/claude-sonnet-4
切换回 Hermes 3
/model nous-portal hermes-3-70b
注意:
/model的具体指令格式以/help或hermes model –help输出为准([命令格式待核实])。Live Model Switching 在 v0.8.0 正式引入(2026.04.08)。
典型用场景:
- 先用 DeepSeek-R1(低成本)处理数据分析,再切换到 Claude Sonnet(高质量)写报告
- 在同一会话中验证不同模型的输出差异
- 临时切换到长上下文模型处理大文件,处理完切换回轻量模型

Hermes Agent v0.7.0 起支持 Credential Pool Rotation(凭证池轮换)——为同一提供商配置多个 API Key,请求时自动轮换,有效规避单 Key 速率限制。 这是高并发场景下最推荐的 Key 管理方式。
# 配置多个同一提供商的 Key,格式为 JSON 数组 hermes config set credential_pool ‘[ {“provider”: “openrouter”, “key”: “sk-or-key1…”}, {“provider”: “openrouter”, “key”: “sk-or-key2…”}, {“provider”: “openrouter”, “key”: “sk-or-key3…”} ]’
验证凭证池已生效
hermes config list | grep credential_pool
轮换策略:默认按轮询(Round-Robin)顺序分配请求,某个 Key 触发速率限制(429)时自动跳过,切换至下一个可用 Key。
凭证池与单 Key 的对比:
配置完成后,执行以下验证流程确认模型正常工作:
# 1. 查看当前生效配置 hermes config list
2. 发送测试消息(会打印模型名称和响应时间)
hermes “你好,请说出你的模型名称”
3. 如果认证失败,开启调试模式查看完整错误
hermes –debug “你好”
常见问题定位:
AuthenticationError: Invalid API key Key 粘贴错误 / Key 已过期
hermes config list 核查,重新设置
ConnectionError: timeout 国内直接访问境外节点超时 配置代理或切换国内聚合端点
model not found 模型名称拼写错误 通过
hermes model 向导重新选择模型
RateLimitError: 429 单 Key 速率限制 配置凭证池(v0.7+)或降低并发数
Q1:Hermes Agent 配置文件在哪?可以直接编辑吗?
Hermes Agent 的配置存储在 ~/.hermes/config.json([路径待核实:以 hermes config list 输出中的文件路径为准])。推荐使用 hermes config set 命令修改,避免直接编辑 JSON 文件导致格式错误。
Q2:同时配置了多个提供商,Hermes Agent 用哪个?
默认使用最后一次 hermes model 向导设置的提供商。可通过 hermes config list 查看 active_provider 字段([字段名待核实])确认当前激活的提供商,通过 hermes model 重新选择切换。
Q3:Nous Portal 和 OpenRouter 配置 Hermes 3 有什么区别?
Nous Portal 对 Hermes 3 提供原生函数调用支持(函数格式与模型训练完全对齐),工具调用成功率高于通过 OpenRouter 中转的版本。OpenRouter 版本的 Hermes 3 使用通用 Function Calling 适配层,适合快速测试或统一 Key 管理场景。核心推理能力两者无差异。
Q4:怎么知道当前用的是哪个模型?
hermes config list | grep -E “model|provider”
v0.8.0 中,通过消息平台对话时,每条回复底部会显示当前使用的模型名称(默认开启)。
Q5:国内访问 Claude 用哪个方案最稳定?
通过兼容 OpenAI/Anthropic 格式的国内聚合节点(如七牛云 API Key)配置自定义端点,相比直连 api.anthropic.com 或使用代理,延迟更低,更适合生产环境。具体配置需在 hermes model 向导中选择 “OpenAI Compatible” 并填入国内节点地址和 Key。
Q6:v0.8 的 Live Model Switching 支持哪些消息平台?
目前已在 Telegram、Discord、Slack 上确认可用,其余支持的渠道(WhatsApp、Signal、Email)是否支持此功能以 v0.8.0 发布说明为准([待核实])。
Hermes Agent v0.8.0 的大模型配置分三层:hermes model 向导完成基础 Provider 绑定、hermes config set 精确调整单个字段、凭证池(v0.7)管理多 Key 高并发场景。 国内用户直接访问 Nous Portal 和 OpenRouter 会遇到连接问题,推荐通过国内兼容端点中转。v0.8 新增的 Live Model Switching 将模型切换从”重新配置”变为”对话内命令”,显著降低了多模型调试和切换成本。
数据来源:NousResearch/hermes-agent GitHub(v0.8.0,2026.04.08) | 信息时效:2026 年 4 月
相关资源:
- 七牛云 API Key:兼容 OpenAI/Anthropic 双标准,国内直连节点,单 Key 覆盖 Claude、DeepSeek、Gemini 等主流模型,新用户 300 万 Token 免费额度
- 七牛云 MCP 服务:无需本地部署即可为 Hermes Agent 添加标准化工具能力
- NousResearch/hermes-agent:Hermes Agent 官方 GitHub 仓库,v0.8.0 发布说明含最新 Provider 支持列表
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/262005.html