
注:图片由豆包生成
关于人工智能对科学研究的影响,目前有两种截然不同的看法。
一种看法偏谨慎。著名经济学家达龙·阿西莫格鲁认为,AI在十年内对科学进步的推动作用不会太大,因为科学发现的过程很复杂,很多环节会成为瓶颈。
另一种看法则相当乐观。人工智能公司Anthropic的CEO达里奥·阿莫代伊预测,AI将把原本需要50到100年才能完成的生物医学进步,压缩到5到10年内完成。OpenAI的萨姆·奥尔特曼更是豪言:到2035年,每个人都能调动相当于今天全人类智慧的智力资源。DeepMind的德米斯·哈萨比斯则说,AI能把新药研发从十年缩短到几个月甚至几周。
谁说得对?现在下结论还为时过早。但三位经济学家——阿贾伊·阿格拉瓦尔、约翰·麦克黑尔和亚历山大·厄特尔——在一份新发布的论文中,提出了一个既能解释乐观派观点、又能容纳谨慎派担忧的分析框架。他们认为,关键在于理解AI在科学发现中到底扮演什么角色,以及人类科学家在AI时代还有哪些不可替代的价值[1]。
AI不是取代科学家,而是帮他们“看得更远”
这三位学者的核心观点是:AI最大的价值不是取代科学家,而是增强科学家的能力。具体来说,AI就像一台强大的“搜索机器”,能帮助科学家在极其庞大的可能性空间中快速找到有价值的方向。
为什么这个能力这么重要?因为科学发现本质上就是在各种可能性中“大海捞针”。拿新药研发来说,科学家要从小分子化合物中找出那个能精准结合目标蛋白质的“幸运儿”。理论上可能的小分子组合数量是天文数字,靠人力一个个试根本不现实。而AI可以学习已有数据,直接给出最有希望的候选分子,让科学家把精力集中在最有价值的方向上。
为了说清楚AI到底在哪些环节发挥作用,三位学者把科学发现的过程拆成了四个阶段:
第一个阶段:提出好问题
科学发现始于一个好问题。过去,科学家主要通过两种方式发现问题:一是从海量数据中“看”出模式(培根式归纳),二是发现与现有理论不符的异常现象(皮尔士式惊奇)。
AI在这两方面都能帮忙。比如有研究者用机器学习分析被告的照片,发现“脸型饱满”的人更容易被法官批准保释——这个规律靠人眼从成千上万张照片里找出来几乎不可能。但AI“看见”这个模式后,还需要人类科学家来判断:这个发现到底意味着什么?值得深入研究吗?
第二个阶段:想出好点子
有了问题,下一步是提出解释性的“点子”或理论。这本质上是在已有知识的基础上进行组合创新——把已有的概念、理论以新的方式拼接起来,看能不能解释新发现的现象。
这个阶段需要的是“想象力”和“猜测”。哲学家皮尔士说过,新知识只能来自猜测,而猜测是一种艺术。AI,尤其是像ChatGPT这样的大型语言模型,能帮助科学家快速组合已有知识,生成大量假设。但这些假设哪些靠谱、哪些只是“看起来很合理”,还得靠科学家的判断力来筛选。
第三个阶段:设计实验方案
这是目前AI表现得最亮眼的阶段。拿AlphaFold来说,它通过分析已知的蛋白质结构数据,学会了预测任何蛋白质会折叠成什么形状。要知道,蛋白质折叠的可能性几乎是无限的,传统方法靠实验一个个测,耗时极长。而AI可以把这个过程从几年缩短到几天甚至几小时。
这个阶段AI之所以特别擅长,是因为它有三个条件:搜索空间巨大、目标明确(比如预测结构准确度)、有大量数据可以学习。这三个条件具备时,AI就像开了“上帝视角”,能直接从设计空间中挑出最有希望的候选方案。
第四个阶段:做实验验证
最后一步是把设计方案拿到现实中检验。AI在这方面的贡献主要是两样:一是帮助分析实验数据,二是与机器人技术结合,实现实验自动化。但作者强调,即使AI再强大,科学家仍然需要对实验结果做出最终判断——这个数据是真的有意义,还是只是仪器噪声?这个药有效果,但副作用能不能接受?这些问题都需要人类来拍板。
为什么人类判断力不可替代?
看到这里你可能会问:AI不是越来越聪明了吗?为什么人类判断力还能保有一席之地?
三位学者给出了几个理由。
首先,科学中有一类推理叫溯因推理,就是从现象反推原因。这需要“猜”,需要直觉。哲学家惠威尔说得好:“把事实联系起来的观念,来自发现者的洞察力。这种洞察力是教不会的。”
其次,科学家有一种隐性知识——知道得比能说出来的多。就像你骑自行车时能保持平衡,但要你说出具体怎么做到的,反而说不清楚。这种难以言传的知识,正是人类判断力的核心,也是目前AI难以真正模仿的。
再者,科学探索需要动力和热情。波兰尼说,科学家对未知的追求是一种“个人痴迷”——一个问题如果让人茶饭不思,它才真正成为问题。这种发自内心的驱动力,很难想象一个AI系统能拥有。
AI在不同学科中表现不一
论文中特别强调的一个概念叫“锯齿边界”,意思是AI的“能”与“不能”之间不是平滑过渡,而是充满断裂和突变。换句话说,AI在不同学科、不同环节的表现差异巨大。
在生物学和医学这样的领域,数据丰富、搜索空间明确,AI在设计阶段大显身手。AlphaFold就是典型例子。
但在理论物理这样的领域,数据稀疏、依赖理论洞察,AI的用武之地就小得多。它能帮助处理实验数据,但很难完成“范式转换”式的理论创新——那需要类比推理和直觉判断,目前还是人类科学家的专长。
在材料科学领域,AI可以预测哪些新材料可能稳定存在,但最终的实验验证仍然耗时费力,成为新的瓶颈。
在经济学领域,AI可以处理大规模数据、帮助做因果推断,但要提出关于不平等、政策设计这类问题,仍然需要对人类社会的深刻理解。
AI时代,科学家需要新技能
如果AI正在改变科学发现的方式,那科学家需要具备哪些新能力?
三位学者用“任务模型”分析了这个问题。他们区分了两类科学家:一类是“AI专家”,既懂专业知识又会用AI工具;另一类是“普通科学家”,只懂专业但不熟悉AI。
研究发现,当AI技术突破、能处理的任务范围扩大时,“AI专家”科学家会变得更吃香,收入也会更高。但如果这类专家太少,就会造成严重的收入不平等。所以,让更多科学家掌握AI技能,不仅能提高整体科研产出,还能让收益分配更公平。
但这里有一个矛盾:如果科学家过度依赖AI,会不会反而削弱了自己的判断力?比如写论文都用AI帮忙、看文献都用AI总结,那“思考”本身会不会退步?有研究显示,使用AI的科学家虽然论文发表数量大幅增加,但研究的主题范围却缩小了——他们更多地在已有数据丰富的领域里打转,而不是去探索全新的方向。
这种“用AI越熟练,视野越狭窄”的现象,值得警惕。
政策制定者该怎么做?
基于上述分析,三位学者对政策制定者提出了一些建议:
第一,投资于AI技能培训。AI技术本身在快速发展,但科学家能否用上这些技术,取决于他们是否掌握相应技能。政府和研究机构应该投入资源,帮助更多科学家成为“AI专家”。
第二,关注不同学科的需求差异。在生物学、医学等数据丰富的领域,重点是让更多科学家用上最先进的AI工具;在理论物理等数据稀疏的领域,重点是培养那些能进行高阶推理、提出范式性理论的顶尖人才。
第三,警惕AI带来的“知识坍缩”风险。如果AI过于好用,科学家可能逐渐丧失独立思考和判断的能力。我们需要设计制度,鼓励科学家在利用AI的同时,保持对基础原理的深刻理解。
结语:AI是“心智的自行车”,不是自动驾驶汽车
回到开头的争论:AI到底能多大程度上加速科学发现?
三位学者的回答是:潜力巨大,但能不能兑现,取决于我们怎么用。如果把AI当作取代科学家的“自动驾驶汽车”,可能既低估了AI的价值,也低估了人类判断力的不可替代性。如果把AI当作“心智的自行车”——让科学家跑得更快、看得更远,同时保持对方向的掌控——那科学发现的效率确实有可能实现质的飞跃。
正如作者所言:“AI应被视为增强科学家能力的工具,而不是取代他们的解决方案。”在AI与科学共同演进的未来,如何平衡效率与理解、自动化与判断力、个人生产力与集体知识基础,将是我们这个时代最重要的课题之一。
(注:本文撰写过程中使用AI辅助语言润色,内容经人工核实,文责自负。)
ies Research是iGroup Asia Pacific的全资子公司,总部位于新加坡, 利用独创“ies Storyboard” 工具,帮助把科研成果转化为科普文摘,并利用视频或音频 作为补充,最大限度的展示科学发现。帮助建立和运营Facebook、Twitter等国际社交媒体账户,利用社交媒体,在全球范围内分享科学故事,提高研究的知名度和学术参与度。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/272629.html