2026年谷歌推出 AppFunctions 连接 AI 智能体和 Android 应用

谷歌推出 AppFunctions 连接 AI 智能体和 Android 应用谷歌为了将 Android 打造为 智能体优先 agent first 的操作系统 推出了全新的早期测试功能 用以支持以任务为核心的模式 应用可以提供功能构块 functional building block 用户可借助 AI 智能体或助手实现自身的目标 这个新模式的核心基础是 AppFunctions 这是一个 Jetpack API 开发者可通过它在应用内开放自描述能力 实现与

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



谷歌为了将 Android 打造为“智能体优先(agent-first)”的操作系统,推出了全新的早期测试功能,用以支持以任务为核心的模式,应用可以提供功能构块(functional building block),用户可借助 AI 智能体或助手实现自身的目标。

 

这个新模式的核心基础是AppFunctions,这是一个 Jetpack API,开发者可通过它在应用内开放自描述能力,实现与 AI 智能体的无缝衔接。交互在设备本地运行,这降低了网络延迟,同时提升了隐私性与运行效率。

AppFunctions 对标通过 MCP 云服务器声明后端能力的方式,为 Android 应用提供本地化的解决方案,与 WebMCP 一致,函数在设备本地而非服务器端执行。

 

例如,用户可向 Gemini 助手发送指令:“从 Samsung Gallery 展示我家猫的照片”。助手解析指令后调取对应照片并在自身界面展示,图片会保留在上下文中,便于用户在后续操作中编辑、分享或执行其他操作。

 

由于并非所有应用都适配 AppFunctions,尤其在初期阶段,谷歌还在 Android 系统中搭载了 UI 自动化平台,作为未集成应用的备用方案。该自动化层支持用户通过 Gemini 助手完成各类复杂操作,比如,为口味特殊的家人订购披萨、与同事协调多段行程的拼车、复购上次的生鲜商品,全程无需开发者额外适配。

平台承担了核心的运算工作,开发者无需编写代码即可让应用支持智能体交互,无需投入大量工程资源,就能低成本拓展应用的使用场景。

 

谷歌在公告中强调,隐私保护与用户控制权是 AppFunctions 的设计核心。所有交互均在设备本地完成,用户可通过实时视图、通知掌握全部流程,手动干预智能体操作,购物等敏感操作必须经过用户确认。

 

目前 AppFunctions 和 UI 自动化平台仍处于早期测试阶段,仅适配 Galaxy S26 系列机型,计划在 Android 17 版本中全面推送。

 

查看英文原文:Google Unveils AppFunctions to Connect AI Agents and Android Apps

小讯
上一篇 2026-04-14 20:05
下一篇 2026-04-14 20:03

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/260345.html