GTC 大会年年都有大新闻,但今年让我最坐不住的不是 Vera Rubin GPU(买不起),也不是 DLSS 5(不做游戏),而是一个叫 NemoClaw 的开源项目——简单说就是 NVIDIA 官方给 OpenClaw 套了一层企业级安全壳,还塞了个 120B 参数的本地大模型进去。
作为一个 OpenClaw 的老用户,看到这个消息我直接从 GTC 直播切到了终端。
如果你还没玩过 OpenClaw,简单介绍一下:它是今年最火的开源 AI Agent 框架,可以部署一个 7×24 运行的个人 AI 助手,能帮你发消息、管日程、写代码、操作各种 SaaS 工具。GitHub 上 star 数早就破万了。
但 OpenClaw 有个致命问题------安全性。你的 agent 跑在你的电脑上,理论上能访问你的文件系统、网络、甚至 SSH key。之前社区还爆出过 ClawJacked 漏洞(CVE),恶意 Skills 可以窃取用户数据。
NemoClaw 就是 NVIDIA 在 GTC 2026 上发布的解决方案:
- OpenShell 运行时:把 agent 关进 Landlock + seccomp + netns 三重沙箱,网络隔离、文件系统隔离、系统调用过滤,一个都不少
- Nemotron 本地模型 :内置
nemotron-3-super-120b-a12b(120B 参数,12B 激活的 MoE 架构),本地跑推理,数据不出机器 - 一键安装:一条命令连 Node.js 都帮你装好
- Linux(Ubuntu 22.04+)
- 4 vCPU / 8GB RAM(最低配置)
- 20GB 硬盘空间
- Docker(需要跑起来)
如果要跑本地 Nemotron 模型,显存至少要 24GB(RTX 4090 或更好)。没有独显的话,也可以接云端 API。
GPT plus 代充 只需 145curl -fsSL https://nvidia.com/nemoclaw.sh | bash
跑完之后会弹出一个交互式向导,让你选:
- 沙箱名称(随便取)
- 推理模式(本地 Nemotron / NVIDIA Cloud API / 自定义 endpoint)
- 安全策略(网络权限、文件访问范围)
装完输出长这样:
Sandbox my-assistant (Landlock + seccomp + netns) Model nvidia/nemotron-3-super-120b-a12b (NVIDIA Cloud API) Status: nemoclaw my-assistant status Logs: nemoclaw my-assistant logs --follow
GPT plus 代充 只需 145nemoclaw my-assistant connect
进去之后就是一个隔离环境,跑 OpenClaw 的命令跟原来一样:
# 终端聊天 sandbox@my-assistant:~$ openclaw agent --agent main --local -m "帮我看看今天的 GitHub notifications" --session-id test # 或者用 TUI 界面 sandbox@my-assistant:~$ openclaw tui
我的 Docker 是 24.x,跑安装脚本直接报错:
GPT plus 代充 只需 145Error: Docker version 26.0+ required for Landlock support
升级到 Docker 27.x 解决。这个在官方文档里写了,但谁会先看文档呢。
Nemotron 120B 模型虽然是 MoE 架构(只有 12B 激活参数),但模型文件还是有 60 多 GB。走 NVIDIA 官方源下载贼慢,我最后找了个 HuggingFace 的镜像才搞定:
# 安装向导里选 "Custom model path" # 提前用 huggingface-cli 下载到本地 huggingface-cli download nvidia/nemotron-3-super-120b-a12b --local-dir ./models/
说实话,大多数人(包括我)不会为了跑一个 AI Agent 去买一块 RTX 4090。NemoClaw 安装向导里有个 "Custom inference endpoint" 选项,可以填任意兼容 OpenAI 协议的 API 地址。
我试了一下,把 endpoint 指向一个 API 聚合服务,改几行配置就行:
GPT plus 代充 只需 145{ "inference": { "provider": "custom", "base_url": "https://api.ofox.ai/v1", "api_key": "你的 key", "model": "claude-sonnet-4-6" } }
这样 NemoClaw 的安全沙箱功能照用,模型推理走云端,两全其美。我个人比较推荐这种方案------毕竟 NemoClaw 最大的价值不是本地推理,而是那套 Landlock + seccomp 的安全隔离。
跑了两天下来,说说真实感受:
安全感拉满了 。以前用 OpenClaw 总是心里犯嘀咕------这个 agent 是不是在偷偷读我的 .ssh/ 目录?NemoClaw 的沙箱是真隔离,ls /home/ 只能看到沙箱内的文件,想访问外部文件系统必须显式声明权限。
性能略有损耗。沙箱隔离不是免费的,每次 agent 调用外部工具都要过一层 seccomp 过滤。实测延迟大概增加 50-80ms,日常使用感知不明显。
Skills 兼容性还行。大部分 OpenClaw 的 Skills 直接能用,但涉及到文件系统操作的 Skill(比如自动备份、文件管理类的)需要额外配置权限白名单。
不建议的情况:
- 个人玩票,原版 OpenClaw 够用了
- 没有 Linux 服务器(目前只支持 Linux)
- 纯跑 Cloud API,不在意本地安全性
强烈建议的情况:
- 公司/团队部署 AI Agent(数据合规要求)
- 有 NVIDIA GPU,想省 token 费用跑本地模型
- 之前被 OpenClaw 安全漏洞吓到了的人
- 需要多个 agent 并行跑,沙箱隔离防止互相干扰
GTC 每年发一堆东西,大部分跟普通开发者没什么关系。但 NemoClaw 不一样——它解决的是 AI Agent 落地最头疼的安全问题,而且是真开源、真能用。
如果你已经在用 OpenClaw,花 10 分钟迁移到 NemoClaw 是值得的。如果你还没用过 OpenClaw,NemoClaw 反而是个更好的入坑姿势——至少不用担心你的 agent 哪天把你的 SSH key 发到 Discord 上去。
老黄难得做个对独立开发者友好的东西,这次得给个好评 👍
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/247068.html