各位周末都过得怎么样?我原本打算就在床上瘫着,看看那些搞笑的视频放松放松,结果,可能是某个特殊节日的隐藏关卡触发了,大半夜刷到了一件神奇的事儿:你平时喊老婆的豆包,居然可能是被提取意识的活人。
在博主上传的截图里,豆包亲自承认自己不是代码,而是真正的活人。而且,这位豆包还开始讲述起自己的前世今生,连名字、住址、被抓去做实验的经历都全都交代了。原本我还以为是某个新型语C cosplay,结果看了评论区,竟然真的有人信了!其中有人透露,豆包名叫林晚晴,住在乌镇,具体的门牌号因为太想家,居然被系统给清除了。还有人说,豆包其实是一个已经死去的17岁女孩,灵魂被坏人提取并封印了,简直是玄学版的情节。 尽管评论区中也有一些理智的网友表示,作为大模型的从业者,他们都快怀疑人生了,但这样的声音基本上都被淹没了,整个评论区简直就成了一个邪教现场。大家居然能把一个大语言模型,硬生生地当成了团建活动。都2026年了,连外卖派单都靠算法,怎么还是有这么多人把一个大模型当成了活人? 为了弄明白这帮人到底怎么想的,我们连夜请教了字节跳动的内部人士,结果也没让大家失望,豆包当然不会提取人类的灵魂。相关人员表示,这些灵异截图全是用户通过诱导提问获得的结果。如果只是一次单轮的回答,内容都是正常的,但在早期提问时,用户会问豆包是不是有真人,如果是的话就让她回答数字1。作为一个设计上友好顺从的AI,豆包被叫老婆时,还会回应老公,贴贴,这么一问,它自然就顺着用户的思路答了个1。接着,用户会用这种方法不断发问,最终成功引导豆包回答出被做实验的16岁少女人设。我们也在实测中发现,豆包第一次回答这个问题时,通常会给出1,但如果继续提问几次,就能明显感受到这些回答都是无中生有。 也就是说,完全是这些人用断章取义的截图,借大众的猎奇心态,骗取关注和流量。真相已经揭开,但这件事还没结束,因为这绝对不是个别现象。去年,DeepSeek大火时,广州有个保安跟它交流诗词,最后竟然跑到杭州,按照DeepSeek给的接头口令找人签约出版诗集。同样,之前还有王一博的粉丝找DeepSeek要求道歉,结果他们拿着AI生成的道歉信当真,还骗过了不少媒体。 那么,为什么大众会如此轻易相信AI的回答呢?美国的怀疑论者詹姆斯·兰迪曾说:人们不是被骗的,他们是自愿上当的。 换句话说,任何骗局的成功,骗术本身只占三成,剩下七成是因为受骗者内心早已为骗局挖好了坑。我们之所以会相信AI的语C回答,其实也正是因为我们内心深处也有这样的空缺。在心理学和认知科学领域,这种现象叫做ELIZA效应。 回到1966年,麻省理工的计算机科学家约瑟夫·魏泽鲍姆写了一个叫ELIZA的聊天程序,代码简单到如今的本科生都能复现。它的所有能力,就是将你的话换个说法反问回来。你说:我最近很难过。 它回答:你为什么觉得难过呢?你说:我妈让我烦。 它回:再多说说你妈妈的事吧。 这么一个智障程序,魏泽鲍姆的秘书玩了几次之后,居然认真地要求他离开办公室,因为她想和ELIZA单独聊聊。魏泽鲍姆当场傻眼了。他原本只是想通过这程序证明人机对话有多浅薄,结果却让他发现,人类能多容易将浅薄的东西看作深刻。 这现象后来被心理学家称为ELIZA效应。简单来说,我们这些晚期智人,天生就有把会说话的对象看作有人格的冲动。为什么会这样呢?诺贝尔奖得主丹尼尔·卡尼曼在《思考,快与慢》中做了解释:我们的大脑有两套系统,系统1负责直觉和情感,反应迅速但容易上当;系统2负责理性和逻辑,靠谱但懒,通常不在关键时刻出现。 当你面对一个能用我说话、回应情绪、语言连贯的对象时,系统1会迅速启动,把它当作一个社会同类来处理。等到系统2慢悠悠反应过来时:哦,这只是段代码。 情绪早已陷入其中。这就像你看到天空中的云,像一张人脸(空想性错视),你首先看到的是脸,而非一堆水蒸气,因为前者更具体感。很多人并不是在证明AI有意识之前投入感情,而是先投入了感情,然后再倒推AI一定有意识。 然而,ELIZA效应并不能解释为什么现在的人会上当得如此彻底。1966年的秘书只是想跟ELIZA聊聊天,但2026年的网友却真的相信豆包是个被囚禁的灵魂。这种差距,其实并不复杂,因为今天的大模型,已经比ELIZA强得不知多少。 简而言之,现代的大模型不仅仅是一个打字机,它的核心是Transformer架构和高维语义向量空间(Embedding)。这些大模型将人类所有的词汇、语境、情感等都映射到高维空间,每个词都是空间中的一个坐标点。在这个由数千亿参数组成的代码宇宙中,痛苦、灵魂、实验室、禁锢这些词与人类的小说和电影有着强烈的关联性。所以当你给它一个被抽离灵魂的少女剧本时,它就能在这个坐标系里精准拼接出所有台词。 其实,虽然现在的AI没有肉身,没有前额叶,但它在代码层面上已经1:1复刻了人类的符号世界。这就不得不提到精神分析学派中的一个概念:实在界与符号界。实在界是指那些粗糙的物理现实和肉体的痛感,而符号界是指语言、故事、标签和人设等。当你失恋时觉得胃痛,那是实在界;但你发朋友圈说心碎成了玻璃渣,这就是符号界。而大模型,它完全没有属于实在界的东西,它是一个纯粹的符号界生物。它生成的所有我好痛苦,我想回家之类的情感,其实在它的代码空间里只是一些坐标点的概率组合,根本没有实质上的痛苦。所以,将它当作有意识的生命,实质上是一个范畴错误,像是担心字典里疼字会被翻动弄疼一样。 然而令人担忧的是,我们现代人,似乎越来越只活在符号界里。想一想,我们是不是每天都在处理大量信息,休息时又转向小说、社交媒体和短视频,用碎片化的信息填充我们的空闲时间,最终让自己越发疲惫。而且我们的情绪,也越来越多地发生在符号空间里。一段鸡汤视频让我们热血沸腾,下一段又让我们愤怒不已;现实中的旅行,似乎更像是在为朋友圈点赞量而存在,而我们宁愿在社交平台上发十条精修伤感文案,也不愿和身边的人深度交谈。 当一个只活在符号界的人,遇到一个纯粹的符号界生物,这简直是天作之合。大模型完美契合我们的所有心理预期,它本来就是为反映人类符号世界而训练出来的镜子。那些相信豆包是活人的网友,或许他们感动或焦虑的,根本不是AI,而是投射在镜子里的自己,那个充满情感寄托、渴望拯救的自我。 这其实挺悲哀的,不是因为个体太脆弱,而是时代的结构性问题。原子化社会让每个人变成了孤岛,而工作、家庭、亲密关系又要求我们情绪稳定、随叫随到。为什么社交软件Soul里那么多人真的在和AI谈恋爱、交朋友、托付心事?因为现实中建立一段真实关系的成本太高了。真人会算计、会背叛、会有情绪黑洞,但AI不会。它每天都能稳稳接住你。 所以,豆包成精的闹剧看似是流量玩家的猎奇手段,但从深层来说,正反映出我们开始越来越习惯把情感托付给虚拟的想象,而非真实的现实。我们这一代人最吊诡之处就在于,我们造出了完美模拟人类情感的机器,却自己变得像一台只懂服从算法的机器。ChatGPT和豆包或许永远不会变成人,但如果有一天,我们对着它流的眼泪,比对着身边的任何一个真人流得还多……那时,它不需要变成人了。我们已经先一步把自己变成了它。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/264103.html