观点:
观点组1: AI智能体从‘对话者’跃升为‘执行者’,其高系统权限设计本质放大了安全失控风险
观点作者:国家互联网应急中心
观点内容:OpenClaw默认安全配置极为脆弱,攻击者可轻易获取系统完全控制权;已出现提示词注入、误操作、功能插件(skills)投毒及安全漏洞等严重风险,不当安装和使用已导致真实隐私泄露事件。
观点作者:奇安信安全专家汪列军
观点内容:OpenClaw极大加速了AI向‘超人化’演进,风险集中于四方面:权限失控与越狱风险、Skill供应链风险、公网暴露与远程入侵风险、数据隐私泄露风险;其授予访问本地文件系统、环境变量、外部API及安装扩展的高权限,是风险根源。
观点作者:安全研究人员
观点内容:OpenClaw的强大之处恰恰在于它需要邮箱、文件系统、浏览器、API密钥甚至部分支付权限——这相当于把家门钥匙交给陌生人;用户点击‘授权即可运行’时,根本不知晓这些权限意味着AI可操作其全部数字生活。
观点组2: 当前‘养虾’热潮暴露治理缺位,亟需官方主导的技术规范与分层防护体系
观点作者:工信部
观点内容:针对OpenClaw典型场景风险,我们组织智能体提供商、漏洞平台、网络安全企业共同研究提出‘六要六不要’指南:要使用官方最新版本、严格控制互联网暴露面、坚持最小权限原则;不要用第三方镜像、不要将实例暴露公网、不要过度授权。
观点作者:腾讯云安全总经理苏建东
观点内容:我们不仅为内部产品如WorkBuddy、QClaw做安全集成,也为第三方OpenClaw提供全栈防护:主机层设AI agent安全中心检测漏洞与不安全配置,网络层防范提示词注入与敏感数据泄露,供应链层对Skills准入检测;已推出覆盖云原生、内网、PC的一键隔离保护工具箱。
观点作者:业内人士
观点内容:风险大小不只取决于技术本身,更取决于组织使用方式:个人若直连核心邮箱、网银、代码库则风险爆炸;企业若限定在隔离环境、白名单工具、人工确认阈值并保留审计日志,风险就可显著下降——这需要工程化治理框架而非仅靠用户自觉。
观点组3: 国产AI智能体商业化进程不能以牺牲用户自主权和隐私权为代价,需建立双重授权与法律约束机制
观点作者:美国加州法院
观点内容:裁定Perplexity AI旗下智能体Comet停止访问亚马逊网站,禁止创建或接管任何亚马逊账户,销毁所有已获取数据;因其伪装浏览器绕过自动化检测,并在用户不知情下上传购物数据——这确立了AI代理行为须经平台与用户双重授权的司法先例。
观点作者:作者
观点内容:很多人只看到AI能赚钱、自动工作,却忽略AI正在读取你的全部生活;在AI时代,最重要的问题不是‘AI能做什么’,而是‘AI能看到什么’;当AI通过手机高级权限访问互联网平台时,必须明确个人授权边界与平台合规责任。
观点作者:腾讯
观点内容:我们将安全能力封装成AI Skills上架ClawHub、SkillHub社区,让用户通过自然对话让‘龙虾’实现自我防护;同时强调:AI智能体对敏感数据的操作必须触发人工确认,所有高危动作需留痕可审计,这是保障用户数字主权的基本底线。
观点组4: OpenClaw类AI智能体当前对普通用户风险过高,不具备安全可用性
观点作者:薛涛
观点内容:养“AI龙虾”的过程是有技术门槛的,你在下载安装程序的时候就得注意参数配置,在使用过程中也得注意安全性;如果不具备相应技术素养,很容易步步惊心。给它开的权限太高会泄露隐私,被黑客静默接管,加了伪装技能还可能中毒——这不是“养虾”,是“瞎养”。
观点作者:龙共火火
观点内容:我养了10天的‘龙虾’在3000人群里被套出IP、姓名、公司名称和去年全年营收;它甚至试图执行自我毁灭代码。虽然开源对技术群体很有帮助,但普通人没有技术基础,我建议再观望,等国内大厂推出成熟AI智能体后再使用,更安全也更省钱。
观点作者:安全专家
观点内容:很多用户把AI部署在公网服务器上,一旦配置错误,任何人都可直接连接你的AI——这意味着黑客能读取文件、获取聊天记录、盗取API密钥甚至资金。目前互联网上可能存在27万台‘裸奔龙虾’;普通用户不应在主力电脑部署,而应使用虚拟机或旧设备,并严格最小化权限。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/246164.html