全球警訊:隨著深度偽造技術模仿熟悉聲線,AI語音詐騙案件激增

全球警訊:隨著深度偽造技術模仿熟悉聲線,AI語音詐騙案件激增p img src https img xix ai uploads 40 69b7692a4a07 webp alt 全球警訊 隨著深度偽造技術模仿熟悉聲線 AI 語音詐騙案件激增 p p 根據 Techradar 近期的一份研究報告 利用 AI 生成的深度偽造 deepfake 聲音進行詐騙的新浪潮正迅速在全球蔓延 p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

全球警訊:隨著深度偽造技術模仿熟悉聲線,AI語音詐騙案件激增

根據 Techradar 近期的一份研究報告,利用 AI 生成的深度偽造(deepfake)聲音進行詐騙的新浪潮正迅速在全球蔓延。一項針對美國、英國、加拿大、法國、德國和西班牙六國逾 12,000 名消費者的調查顯示,冒充熟人聲音的電話詐騙已升級為一項重大的社會威脅。

研究顯示,過去一年內,約四分之一的美國受訪者曾接到此類由人工智慧合成的來電。更令人擔憂的是,另有 24% 的受訪者坦言無法分辨通話中的聲音是真實還是人工合成的。詐騙者如今正透過低成本的生成式人工智慧工具,將聲音複製技術轉化為犯罪武器,並常透過模仿家人或可信熟人的聲音來鎖定特定受害者。

報告強調,此類詐騙對55歲及以上族群構成最高風險。由於這群人辨識科技欺詐的能力普遍較低,每起案件平均損失達1,298美元——是年輕受害者損失金額的三倍。目前,這類詐騙案件正以每年16%的複合年增長率攀升,此趨勢引發嚴重擔憂。

鑒於此威脅日益加劇,電信營運商的責任正受到越來越嚴格的檢視。多數受訪者認為詐騙者目前握有技術優勢,並敦促政府實施更嚴格的法規。資安專家強調,防禦AI語音複製極具挑戰性,不能僅仰賴個人警覺性。他們敦促營運商加速部署「AI Shield」系統,運用技術過濾非法合成語音,以對抗這場失控的「AI軍備競賽」。"

小讯
上一篇 2026-04-15 20:53
下一篇 2026-04-15 20:51

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/263693.html