大家好,我是讯享网,很高兴认识大家。
文|电厂,作者|唐,编辑|高
著名科技公司的工程师突破重重障碍发声:他负责的人工智能变得有意识。公司因他违反保密协议而将他停职。这看起来像是《黑镜》中的情节实际发生在2022年的现在。
这位名叫布雷克·莱莫因(Blake Schmidt)的工程师负责测试谷歌的LaMDA模型是否会在谷歌的人工智能部门产生歧视性语言或仇恨言论。
但是,真的是这样吗?
中国网络媒体对这一事件进行了报道,事件本身迎合了大众对人工智能的担忧,但我们还是希望更严肃地讨论这一事件。
什么是LaMDA?
LaMDA是谷歌在2021年开发者大会上公布的大规模自然语言对话模型。像所有大型人工智能模型一样,训练LaMDA可以分为两步:预训练和微调。在预训练阶段,Google从公开数据中创建了一个1.56T的数据集,并喂给LaMDA,让它对自然语言有一个初步的理解。
此时,LaMDA可以根据给定的句子预测上下文。但是,这种预测通常不够准确,因此需要进一步微调。对话过程中,LaMDA会根据对话生成若干备选答案,通过LaMDA分类器预测每个答案的兴趣度(SSI)和安全度(Safety)的得分。安全分低的答案会先被过滤掉。剩下的答案会按照感兴趣的程度排序,得分最高的备选答案就是答案。
从LaMDA的训练过程可以看出,它并不了解自己的答案。但是机器学习的优势在于它可以从大量的数据中发现规律,通过自己的量化评价体系找到最接近的正确答案。
布雷克·莱莫因为什么被停职?
因为他违反了谷歌的保密协议。据他自己说,他曾经寻求“最小限度的外部咨询,以帮助指导我的调查”。包括一名美国参议员,莱莫伊向他提供了谷歌及其技术涉及宗教歧视的证据。
LaMDA真的有意识吗?
谷歌已经正式否认了这一说法。谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中表示:“我们的团队——包括伦理学家和技术专家——已经根据我们的人工智能原则审查了布莱克的担忧,并告知他证据不支持他的说法。”LaMDA是一个自然语言模型。本质上,它的工作和谷歌搜索栏中的自动补全没什么区别,都是通过给定的上下文来预测用户的意图。
但是,当LaMDA的参数达到1370亿量级时,它做得非常好,可以短时间欺骗人类。但是LaMDA不明白他在说什么。机器学习所做的是捕捉训练语料的语言结构。它可能会产生一个微妙的答案,也可能是完全错误的。
但关键是,现阶段的人工智能没有办法成为自己的“决策者”。斯坦福大学经济学家埃里克·布林约尔松(Erik Brynjolfsson)做了一个准确的类比:声称它们(人工智能)具有感知能力,就相当于一只狗听到了留声机里的声音,认为它的主人就在里面。
谷歌如何审查人工智能?
在谷歌,任何员工都可以要求对新产品进行审查。中央审查小组将适用人工智能的相关伦理框架作为原则,并在审查期间寻求专家支持。这个团队的成员包括用户研究人员、社会科学家、技术专家、伦理学家、人权专家、政策和隐私顾问以及法律专家。评估员将系统地考虑人工智能的原理,并从以前的案例研究中寻找适用的例子。
如有必要,评估员将向专家咨询解决方案。产品团队将根据建议调整方法。达成一致的解决方案将由领导层签署,并成为产品开发计划的一部分。如果需要做出一个具有挑战性的决定,由谷歌高管组成的高级委员会将最终对其进行审查,并决定是否有必要大幅改变或暂停该项目。此外,谷歌将邀请外部专家参与审查过程。例如,他们邀请非营利组织BSR(商业社会责任)评估新的名人识别工具。谷歌的人工智能原则包括:
除了上述目标,谷歌还承诺不在以下应用领域设计或部署人工智能:
我们真的需要人工智能才能成为人类吗?
把人工智能变成人,除了引起群众恐慌,潜在的伦理问题,给公司带来无数麻烦,还有什么积极意义?科幻作品讨论的是一种基于现实社会模型的思想实验。
游戏《底特律变了个人》讨论了这个问题。最终人类和机器人分裂成两大阵营,社会被彻底撕裂。但在现实世界中,人工智能的意义在于它是提高生产力、解放人类的工具,就像蒸汽机把人类从体力劳动中解放出来一样。完全成为人类也意味着完全接受人类固有的缺陷。毕竟人工智能和人工意识是两个完全不同的概念。能够愚弄人类,并不意味着人工智能产生了意识。现阶段的人工智能其实相当脆弱。
因为人工智能模型的复杂性,人工智能进入了一种无法解释的状态。人类能控制的是输入的语料库和输出的答案。没有人知道它们发生了什么。这意味着,每当输入的语料出现一点偏差,人工智能就很容易被污染。人工智能引发的偏见、谎言、种族歧视屡见不鲜。
2020年1月,密歇根州一名非裔美国人因入店行窃被捕,但他对此一无所知。原因是警察基于人工智能面部识别逮捕嫌疑人。因为大多数用于训练的图像都是白色的,所以人工智能在识别黑色人脸时会出错。在人工智能领域,还有很多严肃的问题需要解决,比如如何让它更高效、更安全、更能解决实际问题。科幻小说和社交网络编织的人工智能恐慌深入人心,但更多的是一种幻想。
一些人工智能公司有意无意的夸大其词和营销宣传,一定程度上加剧了这种恐慌。美国人工智能公司Geometric Intelligence的创始人加里·马库斯(Gary Marcus)在他的著作《重启人工智能——一种有害的现代幻想错觉》中将这种人类倾向称为“易受骗的鸿沟”。
对于依然脆弱的人工智能来说,称之为“人工智障”并不过分。人工智能将在人类文明中发挥重要作用是肯定的,但还有很长的路要走。在这个时间点之前,我们要警惕对人工智能的过度恐慌和想象。
本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://51itzy.com/26832.html