2026年诺奖获得者Hassabis警告:AlphaGo已觉醒,AGI正接管科研

诺奖获得者Hassabis警告:AlphaGo已觉醒,AGI正接管科研p 来源 新智元 p div class img wrapper div

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

  (来源:新智元)

  新智元报道

  编辑:倾倾

  【新智元导读】十年前,AlphaGo的神之一手让专业棋手当场沉默;十年后,Demis Hassabis说:那一刻,我们知道AI已经准备好去做真正重要的事了。从蛋白质折叠到数学奥林匹克金牌,AlphaGo开创的技术路径正在重塑科学本身。

  2016年3月,首尔。

  围棋世界冠军李世石,他的对手是一台程序。

  第二局,第37手落下,无论哪位职业棋手都不会下在这里。

  解说员一度以为这是操作失误,但在一百多手之后,AlphaGo赢了。

  当晚有2亿人在看这场比赛的直播,全场的沉默持续了近一分钟。

  十年后,Demis Hassabis在回顾这段历史时说,它下出「第37手」这一刻,他意识到:技术已经准备好了。

  不是准备好赢围棋,而是准备好去攻克真正的科学难题。

  那个判断,现在看来完全正确。

  数亿种局面,一次穷举都没有

  围棋棋盘上有10的170次方种可能的局面,这个数字远超宇宙中所有原子的总数。

  传统的穷举+剪枝方法,在国际象棋上已经走到了极限,在围棋面前根本不够用。

  AlphaGo把深度神经网络强化学习蒙特卡洛树搜索合在一起

  先从人类棋谱中学习哪些落子是合理的,建立一个初步的直觉模型。

  然后自我对弈数十万局,让强化学习机制不断强化胜率更高的策略。

  最后在实战中只搜索最有价值的分支。

  这套组合的本质是用学习代替规则,用搜索代替蛮力,让AI从经验中涌现出超越人类经验的策略。

  AlphaGo之后,DeepMind继续推进。

  AlphaGo Zero完全抛弃了人类棋谱,从随机落子开始自我学习,最终成为史上最强棋手。

  再往后是AlphaZero。同一套系统,从零开始,几小时之内学会了国际象棋,并且击败了当时最强的专用象棋引擎Stockfish,同时还下出了人类棋手从未见过的新策略。

  Hassabis对这段历史的总结只有一句话:

  这证明了方法是对的,是时候用到真实世界了。

  从棋盘到实验室:AlphaGo的技术迁移

  AlphaGo证明了,AI可以通过学习+搜索找到人类从未到达过的解。

  这个方法,在科学领域的迁移直接且强力。

  蛋白质折叠

  这是人类研究了50年的难题。

  蛋白质从氨基酸序列折叠成三维结构,决定了它的功能。

  理解这个结构,对于攻克疾病和开发新药至关重要,但预测计算量巨大。

  2020年,AlphaFold 2解决了这个问题。

  随后,DeepMind把2亿个已知蛋白质的结构全部预测出来,放进开源数据库,免费向全球开放。

  现在,全球超过300万名研究人员在用AlphaFold数据库工作。

  2024年,Demis Hassabis和John Jumper因此获得诺贝尔化学奖。

  数学推理

  这是AlphaGo最直接的传承方向。

  AlphaProof用语言模型加上AlphaZero的强化学习和搜索算法,学习证明形式化的数学陈述。

  它本质上和AlphaGo「找最优解」是同一套框架,只是搜索空间从棋盘换成了数学命题空间。

  2025年,AlphaProof和AlphaGeometry 2联手,首次在国际数学奥林匹克中达到银牌水平。

  后来,Gemini Deep Think走得更远。

  它用一套受AlphaGo启发的方法,在2025年IMO上拿下了金牌

  算法发现

  AlphaEvolve是这个方向的代表。

  就像AlphaGo搜索下一步最优落子,AlphaEvolve搜索的是「下一个更高效的算法」。

  它找到了一种新的矩阵乘法方式。这是驱动几乎所有现代神经网络的基础操作,被研究了数十年,AlphaEvolve发现了人类从未找到过的方案。

  Hassabis把这称为「AlphaEvolve的第37手时刻」。目前它正在被用于优化数据中心和量子计算问题。

  科学协作

  AI协作科学家系统(AI co-scientist)将AlphaGo的辩论式搜索原则嵌入科研流程。

  它让多个AI智能体「辩论」科学假设,筛选最有价值的方向。

  在帝国理工学院的验证研究中,这套系统分析了数十年的文献,独立推导出了研究人员花了数年时间才验证出的同一个抗菌素耐药性假设。

  十年后,AlphaGo在Gemini里延续

  AlphaGo证明的那套方法,现在正在Gemini里运行。

  最新一代Gemini模型的推理机制,用到了AlphaGo和AlphaZero开创的搜索与规划技术。

  Gemini从一开始就被设计为多模态。不是把图像和音频转成文字再处理,而是直接在多种模态上同时建立对世界的理解。

  在Hassabis的设想中,通向AGI的路径需要三件事同时成立:Gemini提供的世界模型,AlphaGo式的搜索和规划能力,以及AlphaFold这类专用工具的协同调用。

  这三者加在一起,才是「真正通用」的AI。

  他在文章里还讲了一个更高维度的标准:

  真正的AGI,不只是能在围棋里找到人类从未想到的策略,而是能发明一款像围棋一样深邃、优雅、值得人类研究几百年的游戏。

  这两件事的差距,大约就是「找到答案」和「提出问题」之间的距离。

  目前的AI在前者上已经走得很远,后者还没人知道需要多久。

  文章末尾,Hassabis引用了李世石本人的话。

  这位曾被AlphaGo击败的世界冠军,如今是韩国蔚山科学技术院的兼职教授。他这样评价那场比赛:

  我认为AlphaGo给出的最重要的启示,是对人工智能时代的一次决定性预告——证明了这不是某个遥远、模糊的未来,而是一个正在到来的现实。它就像一份来自未来的路线图,向人类发出了清晰的信号:世界正在改变。

  十年过去了,那张路线图上的很多节点,DeepMind已经走到了。

  从蛋白质折叠到数学金牌,从算法优化到AI协作科研,AlphaGo的技术遗产已经溢出了棋盘,渗进了科学本身的运作方式里。

  下一个「第37手」,会发生在哪里?

  Hassabis没有给出答案,但他说,目标已经在地平线上了。

  参考资料:

  https://x.com/GoogleDeepMind/status/

小讯
上一篇 2026-03-17 23:09
下一篇 2026-03-17 23:07

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/243035.html