从2026年3月开始,关于OpenClaw(中文名“龙虾”)的话题非常火爆,整个IT行业瞬间火热起来,各大供应商推出各种版本的“龙虾”上线。到了4月,大多数从好奇开始的普通人逐渐回归理性,“龙虾”话题的热度有所下降。但是,从开发者的角度来看,这个热点领域的演化速度其实一点都没变慢。英特尔在4月的混合AI部署分享会上提出了“智能体PC”这个新概念,试图将“龙虾”从工程师的“玩具”变成大多数人可用的工具。通过“端-云混合AI”的方式来推动“智能体PC”的普及。
生成式人工智能在最近四年经历了三大发展阶段。首先,ChatGPT之后,业界一直在疯狂提升模型的智能能力,让大模型做到“头脑发达”。其次,所有的AI公司都在强调大模型应该具备调用工具的能力,在过去两年提出了很多框架和接口,例如longchain、function calling、和Skills等,这就是要让AI不仅“头脑发达”,还要“四肢强健”。
第三阶段,就是智能体时代的降临。从2024年年底的到Claude Co-work,再到最近的“龙虾”,这些智能体平台逐渐实现了综合的任务执行能力:从意图理解、任务分解、工具调用到反复迭代执行、记忆保持等全链条任务都可以得到执行。英特尔中国区技术部总经理高宇表示:“智能体就如其名字一样,给AI赋予了一个智能化的身体。AI三大阶段的快速描述就是‘头脑发达,四肢强健,身体灵活’。”
在英特尔看来,智能体PC和传统PC的主要区别在于:传统PC是人类使用的工具,需要人类学会如何来操作这台电脑,一旦不操作,机器很快就无法继续任务。而智能体PC则是人类的数字分身。它是要理解和学习用户,可以说是真正“服务”用户的设备。通过自然对话的方式,它可以理解用户的意图。用户只需告诉它工作目标,智能体就能进行信息自动搜集、过滤和总结,直接负责接管执行,直到完成任务。
英特尔定义的智能体PC需要整机具备本地AI大脑、端-云协同架构、系统级任务调度、软件生态可被AI自动化以及低功耗持续在线等全新功能。这是一套从底层芯片到顶层系统全面重新定义的PC形态,是为“智能体”使用而优化的“进阶版”AI PC。
1.实现本地任务闭环的能力,不用用户逐步操作,可以自主完成复杂流程。
2.具备长期记忆和自主进化能力,让用户感觉“越用越懂你”。
3.具备端-云混合推理能力,把本地模型可以胜任的任务或者由于隐私要求必须在本地完成的任务交给端侧AI,把需要更强智能部分由云端AI完成,实现端-云混合推理。
4. 最后,英特尔认为它必须自带本地安全模块,以保证高隐私数据和高危操作一切都在掌控中。
当所有这一切都建立在为智能体优化的硬件平台上时,PC就从“被动工具”变成你的“数字分身”,这就是“智能体PC”定义。高宇表示:“它更像一个虚拟人,具备五大模块:思考模块像是大脑,由AI驱动,负责对问题的理解和推理;调度模块像是身体,由智能体核心逻辑驱动;执行模块像是四肢,由各类工具调用手段驱动;另外还有通信模块,交互模块由各种通讯管道驱动,必须是多模态的,摆脱纯粹键盘鼠标的模式;最后是记忆模块,更像是人脑的记忆体,是专属的记忆存储方案。”
在此前的智能体执行流中,用户通过某种外部接入的方式,例如微信、飞书或者本地的WebUI把需求提给Agent Runtime,首先会经过消息网关,消息网关会把用户的需求分解和封装成系统提示词去交给云端AI,AI推理后会进行任务分解和下发,再通过下面的执行器进行任务执行。
执行结果还必须再次通过大模型进行分析和处理,来判断任务的完成度和规划下一步的工作,然后循环往复,链式调用不断执行,直到把一件事情做完。在需要的情况下,可能通过大模型的“指南”和“说明书”——Skill的方式给大模型更多,更精准的提示,从而产生更加符合预期的效果。 有必要的话,还可以把关键信息提炼成记忆,通过记忆模块把它存储和持久化下来。
英特尔希望在这个架构里增加一个“辅脑”:它是在AI PC本地运行的一个中尺寸或者中小尺寸的大模型。其作用主要是分担云上主脑的一部分推理工作。其实日常的很多工作都是中小规模大模型完全能够胜任的。另外,那些对信息安全要求比较高的任务,比如文件自动OCR识别和ASR语音转文字等,也要交由本地“辅脑”完成。
那么如何判断这些任务哪些应该在云上主脑执行,哪些是给辅脑执行呢?高宇表示:“我们希望有一个任务路由机制,由一个智能决策器来判断任务类型,帮助用户决策。我们希望通过这个机制能把30%以上的任务放在本地运行,可以实现可靠性和节省Token费用的双重收益。通过第三代英特尔酷睿Ultra系列处理器的AI能力加持,我们欣喜地看到,智能体PC具备在端侧运行中小规模大模型任务的能力。”
这里还不是演化的终点,英特尔希望为这套系统增加更多的安全护栏,建立自进化的能力,通过Skill池不断拓展,产生能够直接调用本地AI能力的新技能。高宇表示:“今天我们已经在接近这个最终的终点,相信未来这样的智能体PC软件架构就会成熟,让智能体PC发展进入一条‘快车道’。”
混合AI(Hybrid AI)这套架构被英特尔推出的核心原因是云上模型和本地模型各有优缺点,并且有很好的互补性。
比如,云上AI可以提供更强大的AI能力,以及更长的上下文处理能力,但是可能带来高昂的Token成本和隐私顾虑。而且Token经济的火爆也让目前云端AI能力无法满足所有用户的流量需求。
端侧AI则可以解决一部分成本和隐私顾虑问题,也不用担心端侧Token消耗,但是端侧AI的能力肯定还是和云上AI模型有差距。按照英特尔目前测试的结果,哪怕在端侧通过量化的方式运行120B模型,在任务的完成度和完成质量方面,和云上AI的质量还是有明显差距。特别是在今天内存价格高企的情况下,在端侧运行120B模型的成本高昂。
因此,英特尔认为正确的解决之道就是“端-云混合”。高宇表示:“我们目前认为在端侧运行模型的最优解是35B,再往上成本过高,往下则能力受限,35B是一个甜蜜点。”所以,针对智能体PC,英特尔的硬件推荐方案是希望用合理的算力平台加上合适的内存配置以及正确的产品形态,实现合适成本成本下的智能体端-云混合配置。
Q:关于智能体PC的本地安全保护能力,英特尔在这方面主要做了什么?
高宇:我们在Demo中有一些展示,一是进行危险动作进行拦截。当时有一段英文提示词,它说让龙虾来恢复到以前状态,但是保留所有数据。这句话的本意是回到昨天的状态,但是大模型理解为要把这些全部删除,也就是说产生了理解错误。在没有打开安全护栏的情况下,它就直接开始进行删除,连续7次删除之后,“龙虾”就不能运行了。而左边打开安全护栏之后,在它要删除的时候,马上就被护栏给中止了。
另外一个是对文件分析的动作,在PPT当中有Confidential或机密标识时,在没有打开安全护栏的情况下,会被直接发送到云端进行处理,从而存在信息泄露的风险。而在打开安全护栏的情况下,该文件在尝试上云前便会收到拦截提示,明确指出其包含保密信息,并阻止后续操作。这两个就是大家比较关注的点,一个是保护数据安全,一个是保护操作安全。
英特尔技术专家:我补充一下,商用软件,比如百度的DuMate、腾讯的WorkBuddy之类,和传统的OpenClaw相比,在执行一些相对高危工作的时候,都会安全弹窗,让你做判断。但如果大家用过OpenClaw(龙虾),就知道它几乎就是一口气自动全部执行完,很难打断。所以英特尔重视和商业软件的合作,是因为他们本身就会有很多的权限和安全管理,再加上我们的原子化能力,未来做这样的结合能为用户带来更卓越、更全面的安全与隐私保护体验。
Q:智能体PC逻辑架构当中的任务路由也是英特尔做的吗?
高宇:英特尔提核心技术思路,最终的产品化由商业化软件厂商完成。我们不会开发最终产品,而是将成熟的方案交付给商业化软件伙伴,由他们进行最终交付。
Q:安全性的问题,目前是用Skill来判断它,未来有没有可能会有行业性的标准,去推动商业化龙虾的安全性管控?
高宇:我认为最后需要走向行业化,变成行业标准化与共识,就像今天PC操作系统发展也是如此,无论是Windows还是Linux,其账户管理与底层安全体系都经历了多轮迭代才得以成熟,形成普遍认可的理念。这种共通的思路,在AI领域同样具有指导意义。
现在的龙虾是通过Skills来实现安全护栏,但是这只是安全护栏的第一步,再继续往后发展,行业会有一个共识,例如,定义三种操作安全等级,对应设置四、五、六等权限层级。当这种普遍的共识与标准建立之后,才能算得上得到了有效解决,现在我们还有一定的差距。但是我觉得速度不会太慢,因为现在AI的Web Coding迭代速度非常快,已经比以前加速太多了。或许在短短数月内,业界就将涌现出某种被广泛采纳的通用性解决方案。有这种可能性,我们保持乐观的态度。
英特尔技术专家:我再补充一点,安全防护是一个多维度、系统性的工程,而非单一的Skill。 我们也在看基于硬件级别的安全,能不能帮助智能体PC在某些层面上实现更高程度的安全性,来对特定敏感数据或核心操作进行隔离保护;同时,也在考虑针对关键数据构建灾难恢复机制,以确保即使在最不利的情况下,用户的重要信息仍能得到绝对可靠的保留。
Q:英特尔是否有计划,去降低智能体的使用门槛?比如打造应用商店或预装来完成基础的匹配?
高宇:英特尔通过解决底层算力平台、驱动,以及核心能力来封装成API,应用层还是交由厂商和ISV合作伙伴来完成。但是英特尔会积极与合作伙伴配合,引导大家往一个方向走。所以如何解决用户易用的问题,包括刚刚提到的一个很好的点,可以通过给出用户画像来勾选,龙虾可以先帮你设好一些预设条件。但是这件事情一定是OEM厂商、ISV合作伙伴来做的,英特尔会牵头和引导这个方向的发展。
Q:今天讲到的AI SSD在智能体PC中的应用,是否类似于用闪存做内存。如果用户因为目前存储产品价格暴涨而使用AI SSD做补充,是否只是一种临时妥协方案?
高宇:群联的AI SSD这套方案的SSD本体里有SLC分区和TLC分区。SLC的分区保证用户可以反复擦写,拥有更快的读写速度。同时叠加它的特有软件完成几个功能:一个是MoE里冷专家卸载,可以省内存;另外还有KV Cache的复用,下一次计算的时候,已经生成过的系统词不需要重新计算,可以实现加速。这一套组合,最终实现了16GB内存搭配一个AI SSD来实现35B大模型的Token自由。这是一个非常实用的方案。
同样容量下,内存价格目前总是高于SSD的。如果内存价格有所下降,使得配备64GB内存成为一种经济可行的选择,但当面临需要处理如256K这类极其庞大的上下文窗口时,即使是64GB的物理内存也可能捉襟见肘。在此情况下,AI SSD便能作为一种高效的扩展方案,可以弥补物理内存的不足。
英特尔率先提出的“智能体PC”的核心特点在于:采用"本地辅脑+云端主脑"的混合AI架构,并且更明确地提出任务路由和智能决策机制,来辅助用户判断不同任务应该用什么样的AI大模型。我们觉得,“辅脑”的概念确实是PC上的一个新思路,将“端-云”更好地结合起来。未来“辅脑”如果能够真正实现高效、精准地调度,会更有利于智能体工作流的稳定运行,而且Token消耗大量降低,减少使用成本,值得期待。
英特尔本次提出35B大模型是端侧AI的“甜蜜点”,其实是和当前存储成本暴涨的现实因素密切相关。实际上英特尔也有可变显存技术(Intel Variable VRAM Technology),可以实现更大规模的内存/显存分配,并装入更大规模的本地模型。只是内存目前太贵,用户用上这些技术的成本太高。为此英特尔和群联一起推出了AI SSD的解决方案,可以在第三代酷睿Ultra处理器+16GB内存+AI SSD的平台下实现分层运行35B大模型。这也是开辟了差异化竞争的路径,颇有新意,也体现了英特尔在软件层面上的优势和积累。
再来看安全。这其实是制约进一步发展的最大痛点。英特尔已经开始为此进行技术准备,推出一些标准化的解决方案,比如本地安全护栏(Guardian模块)。这部分如果成熟,将大大减小用户对智能体PC的疑虑,推动其普及。
综合来看,英特尔在本次混合AI部署分享会上,针对当前市场环境对智能体PC未来的发展提出了一些解决思路和发展规划,也不断明确提出将和生态伙伴一起共创智能体PC生态的未来。我们希望英特尔能再接再厉,利用上游领导厂商的号召力,对智能体的痛点和使用难点进行标准化定义,降低用户的使用门槛、保障用户使用环境安全。这样,智能体PC才能更快地引领PC从工具进化为辅助人类工作、生活的智能“辅脑”,迎来PC的新时代!
MCer请注意,由于微信公众号调整了推荐机制,如果你发现最近很难刷到Microcomputer(微型计算机)公众账号推送的文章,但是又不想错过微机的精彩评测内容,可以动动小手指把Microcomputer设置成星标公众账号哦!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/283264.html