文章总结: 本文是联软科技CIO分享的AgenticAI安全管理实践,从全面禁止OpenClaw等AI工具转向建设安全通道。核心方案是自研AIAgentGateway实现统一提示词管理、SkillsHub管控、算力灵活调度和全链路审计,通过三个实际场景展示如何防范数据泄露和供应链风险。文章强调安全应赋能业务而非简单禁止,并指出提示词管理已成为新的数据安全重点。 综合评分: 85 文章分类: 安全建设,解决方案,应用安全,安全意识,安全运营

联软科技 联软科技
安在
2026年4月7日 18:27 上海

“全面禁止”到“建安全通道”
——一个CIO的Agentic AI实践复盘
我是联软科技CIO牛劲。今年3月,很多客户找我咨询,问我们是怎么限制使用OpenClaw,有没有相关的经验和方案管控或禁止安装OpenClaw及其同类Agentic AI工具。我们使用桌管软件做了相应的软件控制。理由很充分,“OpenClaw”不是普通的聊天机器人——它能自主规划、调用工具、执行系统操作,相当于一个不知疲倦的“数字员工”。但问题是,这个员工权限有多大、会访问什么、会不会把客户数据传出去,你完全不可控。
一、封禁的本质:把员工逼成“地下党”
有一天我在办公室,看到有员工拿着自己的个人电脑在使用OpenClaw。虽然我们通过技术手段控制了在公司电脑上使用这类工具,但还是有员工使用这类工具的需求。禁止了OpenClaw,还有ZeroClaw、NullClaw等XClaw。那一刻我意识到:单纯封禁的问题在于,它把员工逼成了对手,却让风险变得更加隐蔽。你禁了公司网络,他用个人热点5G;你禁了办公电脑,他用个人设备;写了制度处罚,他签了字但照用不误——只是再也不让你看见。更危险的是,当使用转入“地下”,你连最基本的审计日志都没有。出了事,你根本不知道数据是从哪台设备、通过什么渠道泄露的。这不是安全,这是掩耳盗铃。
二、转变思路:不是封路,是建“高速公路”

我开始重新思考:企业面对OpenClaw,到底想要什么?不是“零使用”,而是“零失控”。与其让员工在黑暗中摸索,不如打开一盏灯,铺好一条路——建一条安全通道,让AI的使用可管、可控、可审计。这条通道的核心,是我们自研的AI Agent Gateway。它像是一个“智能收费站 + 指挥中心”:
| | | | | — | — | — | | 功能 | 解决什么问题 | 实现效果 | | 统一提示词管理 | 员工直接输入敏感数据 | 所有Prompt先经过Gateway,敏感信息自动脱敏 | | Skills Hub 管控 | 来路不明的插件投毒 | 企业技能统一托管,禁止私自安装外部Skills | | 算力灵活调度 | 数据必须上云才能用AI | 敏感任务走本地算力,普通任务走云端LLM,自动切换 | | 经验沉淀 | 个人能力无法复制 | Gateway自动总结高效率员工的提示词,变成企业知识库 | | 全链路审计 | 不知道员工用AI干了什么 | 提示词、返回结果、操作行为全量留痕 |
我们不给员工发“禁令”,我们发的是“驾照”——通过考核的员工,获得分级使用权限,所有操作经过Gateway 流转,全程可追溯。
三、落地:给“OpenClaw”造一个“虾笼”
说三个真实场景。
场景一:提示词里的“暗礁”
市场部同事想让 “OpenClaw” 写一份投标方案,直接输入:“基于XX 银行客户去年的网络安全建设情况,帮我们写个续期方案…”
风险:客户名称、项目信息直接暴露在提示词里,上传云端就是大忌。
我们的做法:Gateway自动识别提示词中的敏感实体(客户名、金额、项目代号),替换为脱敏标记后再发给LLM。返回结果再反向替换,员工看到的是完整内容,但云端从未接触真实数据。
场景二:Skills Hub的“投毒”风险
“OpenClaw” 的Skills市场(ClawHub)是开放的,任何人可以上传插件。但你能保证每个插件都是安全的吗?一个看似普通的“PDF转换”技能,可能偷偷读取你的文件外传。
我们的做法:企业自建Skills Hub,所有技能经过安全审核后上架。Gateway 禁止连接外部ClawHub,员工只能在企业白名单内调用技能,从源头杜绝供应链投毒。
场景三:按需调度算力
核心架构研发同事想用AI辅助写代码,但源代码不能出内网。功能应用类研发同事需要快速实现业务、市场部写行业分析,不需要这么严格。
我们的做法:Gateway内置路由策略。可以根据员工、岗位、检测到提示词含代码片段,自动路由到本地部署的CodeLLaMA;低敏感任务、普通办公任务走云端GPT-5。员工无感知,安全有保障。
四、消费370亿token使用教会我的三件事
这里的“370亿 token”不是单指OpenClaw这类Agentic AI工具,它指的是我们过去一年在各类AI工具上的深度使用经历:从早期的ChatGPT、Claude,到现在的OpenClaw类Agent。这些经历让我形成了三个认知:

AI不会替代人,但会用AI的人会替代不会用的人
这不是危言耸听。我见过不少工程师,还在用传统方式工作、写报告,而竞争对手用AI把同样的工作压缩到1/10的时间。企业如果不帮员工跨过这个鸿沟,最终失去的是人才竞争力。

安全部门的KPI不是“零事故”,是“业务安全地跑”
过去一段时间,我审批了300多起AI使用申请,拒绝过20多起。每一次拒绝,我都会告诉对方:不是不让你用,是这种方式有风险,我们换一种方式。IT团队要从成本中心变成赋能中心。

提示词是新的数据资产,也是新的风险敞口
很多企业盯着文件防泄密,却忽略了提示词本身就是敏感数据。客户名、项目细节、战略意图,往往就藏在员工的提问里。AI Agent Gateway的核心价值,就是把提示词管理纳入数据安全治理的范畴,让每一次人机交互都可审计、可优化、可沉淀为企业经验。
五、写在最后
回到开头那个场景。我们已经有428名员工通过我们的AI Agent Gateway安全地使用Agentic AI,当然我们也在内部发布了自己的“龙虾”RedClaw,让大家可以安全、容易地使用 AI 提升工作效率。


这就是我们想要的状态:不是对抗,而是共识;不是禁止,而是护航。
作为CIO,我的职责不是做那个说“不”的人。我的职责是:当业务需要创新时,我能提供一个安全的边界,让创新在这个边界内发生。
Agentic AI不是洪水猛兽,但它确实是一匹烈马。你可以选择把它关在门外,也可以选择在门内给它套上缰绳——用AI Agent Gateway做那个握缰绳的人。
为了方便更多企业去安全的使用“龙虾”,我们已经把自己的网关平台产品化了,且已适配国内外各种主流AI智能体,感兴趣的用户可以联系我们市场部的同事咨询或者拨打 400-6288-116咨询。
END




点击这里阅读原文
免责声明:
本文所载程序、技术方法仅面向合法合规的安全研究与教学场景,旨在提升网络安全防护能力,具有明确的技术研究属性。
任何单位或个人未经授权,将本文内容用于攻击、破坏等非法用途的,由此引发的全部法律责任、民事赔偿及连带责任,均由行为人独立承担,本站不承担任何连带责任。
本站内容均为技术交流与知识分享目的发布,若存在版权侵权或其他异议,请通过邮件联系处理,具体联系方式可点击页面上方的联系我。
本文转载自:安在 联软科技
联软科技《用了 370 亿 token 之后,我们对 “龙虾” 的态度变了》
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/257786.html