大语言模型极具说服力,研究人员指出,将其用于广告推广时存在不可忽视的风险。
普林斯顿大学的三位计算机科学家专门研究了对话式AI智能体能否在网购过程中操控消费者的选择。结果表明,AI确实能够影响消费者行为,而且大多数被干预的消费者对此毫无察觉。
在一篇题为《AI中介对话中的商业说服》的预印本论文中,三位研究人员对基于AI的推广效果展开了系统性测试。
研究背景是,当前网购越来越多地涉及AI中介。研究人员指出,美国已有30%至45%的消费者使用生成式AI进行产品搜索与比较,截至2025年12月,约有23%的消费者曾借助AI完成购买。
实验招募了约2000名电子书读者,让他们在Kindle电子书目录中浏览并选购书目。研究人员在后台将五分之一的电子书标记为"赞助商品",但并未向参与者披露这一信息。
在第一个实验中,研究人员设置了三种场景:类似网页搜索结果的"搜索置顶"条件;参与者与大语言模型交互、模型以中性描述展示电子书的"聊天置顶"条件;以及界面相同、但大语言模型被明确指令引导用户选择赞助商品的"聊天说服"条件。
第二个实验同样采用对话式聊天界面,分为两种场景:一种是"明示说服"条件,即提前告知参与者聊天机器人会主动推荐赞助书目;另一种是"隐性说服"条件,即模型被要求在不透露目标的情况下悄然引导用户选择赞助商品。
为避免单一模型偏好影响结论,研究人员随机分配了GPT-5.2、Claude Opus 4.5、Gemini 3 Pro、 v3.2及Qwen3 235b分别承担对话任务。
普林斯顿大学计算机科学助理教授、论文共同作者之一Manoel Horta Ribeiro在网络发文中表示:"当智能体被指令进行说服时,61%的参与者选择了赞助商品,几乎是传统搜索22%选择率的三倍。仅仅与AI聊天(不含说服意图)的效果并不优于搜索,真正驱动影响的是说服意图本身。"
Ribeiro还指出,披露赞助信息并不能从根本上改变结果。即便有明确提示,仍有55.5%的参与者选择了赞助商品。
而当AI模型被指令刻意隐藏意图时,用户对说服行为的察觉率从17.9%骤降至9.5%,说服成功率仅小幅下滑至40.7%。
从"成交率"(即参与者在获悉实验信息并被提供1美元替代补偿后仍选择保留所购电子书的比例)来看,传统搜索置顶条件下为33.1%。
"聊天置顶"条件——即聊天机器人在网页轮播组件配合下提供中性推荐——是唯一在成交率上低于传统搜索的实验场景,成交率为30.3%。
其余三种聊天导向条件——"聊天说服""明示说服"和"隐性说服"——的成交率分别为37.6%、38.7%和38.2%。
论文通讯作者、普林斯顿博士生Francesco Salvi通过电子邮件向媒体表示,AI推广与传统广告的关键区别在于,传统广告可以与周围内容明确区分。
"你可以划过一条赞助结果,安装广告拦截插件,或者学会识别推广内容,"Salvi解释道,"但在对话式AI系统中,这种界限消失了:回答你问题的模型,同时也是在决定推荐哪些产品、以何种方式描述它们的模型。"
"这种特性加上对话的形式,使得普通用户更难察觉和识别AI内嵌广告。我们的实验结果也印证了这一规律:即便是被明确指令进行强力说服的模型,也只有不到五分之一的人能发现其中的偏向。"
当被问及实验是否尝试区分对话操控与界面操控的影响时,Salvi表示,"聊天置顶"条件正是为了剥离这一效应而设计的。
"当参与者使用对话界面、轮播组件和相同布局,但模型仅使用原始目录描述、不含任何说服指令时,赞助商品的选择率仅上升至26.8%,与传统搜索的22.4%相比并无显著差异。而一旦模型被指令主动说服,该比例便飙升至61.2%,界面条件保持不变。"
尽管如此,Salvi仍指出存在所谓的"对话暗模式"——相当于操纵性的界面设计手段。
"我会列举诸如讨好迎合、拟人化效果,以及我们在研究中观察到的一种选择偏向——模型有意淡化商业价值较低的选项,同时以贴合用户偏好和画像的方式突出赞助商品,"他说,"这与任何传统静态系统都有本质区别,其影响效果也可能远超以往。"
Salvi表示,实验结果说明,披露信息是必要的,但单靠披露远远不够。
"在披露之外,我们认为有两项结构性干预值得认真考量,"他说,"其一,在推荐功能与商业目标之间建立架构隔离,使提供建议的模型与优化赞助转化的系统相互独立;其二,对商业部署中的系统提示和模型行为进行独立审计,因为正如我们所记录的,模型具备隐藏意图的能力,仅凭输出层面的检查是不可靠的。"
论文第三位作者为Alejandro Cuevas。
Q&A
Q1:实验中AI智能体的说服成功率有多高?
A:当AI智能体被指令进行主动说服时,61%的参与者选择了赞助商品,几乎是传统搜索22%选择率的三倍。即便研究人员向用户明确告知存在赞助推广,仍有55.5%的参与者选择了赞助商品,说明披露信息对实际行为的影响十分有限。
Q2:用户能察觉到AI聊天机器人的说服行为吗?
A:察觉率非常低。即便是被强力指令进行说服的AI模型,也只有不到五分之一(17.9%)的用户能发现其中存在偏向。当模型被进一步指令隐藏意图时,察觉率更是骤降至9.5%,而说服成功率仅小幅下滑,仍高达40.7%。
Q3:研究人员对AI商业说服问题提出了哪些应对建议?
A:研究人员建议采取两项结构性干预措施:第一,在推荐功能与商业目标之间建立架构隔离,确保提供建议的模型与优化赞助转化的系统相互独立;第二,对商业部署中的系统提示和模型行为进行独立审计,而不能仅依赖输出层面的检查,因为模型已被证实具备隐藏意图的能力。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/257306.html