<div class="img_wrapper"><img src="https://n.sinaimg.cn/spider/200/w1080h720//e2fc-ffeece8c88fe7b0a8fa1b4f.png" cms-width="1080" cms-height="720" id="0"/></div><p cms-style="font-L align-Center"></p><p cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">0</font></font><font cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">1</font></font></font></p><p cms-style="font-L strong-Bold align-Center"><font cms-style="font-L strong-Bold align-Center color210">林俊旸离职:突然但不意外的人事风波</font></p><p cms-style="font-L"></p><p cms-style="font-L">为什么阿里巴巴Qwen技术团队负责人林俊旸的离职引起了这么高的关注,在离职之前,很多关注AI行业的人可能都没听过林俊旸的名字。</p><p cms-style="font-L"></p><p cms-style="font-L">主要原因就是时间点上的微妙,在阿里宣布大模型B端品牌和C端应用品牌全面统一为“千问”的第二天,在阿里刚刚投入30亿春节红包大战的不到一个月,在阿里All in AI,成绩显著的时间点,大模型核心技术负责人离开。</p><p cms-style="font-L"></p><p cms-style="font-L">如果关注过2026年1月的AGI-Next峰会,林俊旸邀请观众体验Qwen,用的是qwen.ai,而不是千问App。当时觉得奇怪,现在才明白。</p><p cms-style="font-L"></p><p cms-style="font-L">3月4日凌晨,林俊旸在X上宣布自己将离开Qwen。随后,多名千问模型团队核心成员也在社交平台表达去意或确认离职消息。</p><p cms-style="font-L"></p><p cms-style="font-L">当天下午,通义实验室紧急召开内部会议。吴泳铭、蒋芳以及周靖人等管理层出席会议,就团队人员变化、组织安排和研发方向进行说明,并强调通义千问仍是公司AI战略的重要基础模型体系。</p><p cms-style="font-L"></p><p cms-style="font-L">3月5日上午,吴泳铭向内部发出邮件,确认公司已经批准林俊旸的辞职申请,并感谢其在千问模型研发中的贡献。邮件同时表示,公司AI战略和千问模型研发计划不会发生变化。</p><p cms-style="font-L"></p><p cms-style="font-L">3月7日凌晨,林俊旸在朋友圈发文正式告别千问团队,回顾了过去几年参与大模型研发的经历,并感谢团队成员的合作。</p><p cms-style="font-L"></p><p cms-style="font-L">随着离职风波发酵,阿里很快完成了新的组织安排。</p><p cms-style="font-L"></p><p cms-style="font-L">根据晚点的报道,目前,阿里云CTO、通义实验室负责人周靖人将代管Qwen模型一号位,负责统筹模型团队资源,并推进各业务线之间的协作。</p><p cms-style="font-L"></p><p cms-style="font-L">同时,原预训练负责人刘大一恒的职责范围进一步扩大,在继续负责预训练工作的同时,也将接管后训练与Coding两个核心研发团队。</p><p cms-style="font-L"></p><p cms-style="font-L">在新的架构下,千问团队仍保持预训练、后训练、Coding三个模块的研发分工,整体技术组织结构并未发生明显变化。</p><p cms-style="font-L"></p><p cms-style="font-L">从组织层面看,这次调整的核心目标是稳定研发节奏,确保模型迭代不受人事变化影响。</p><p cms-style="font-L"></p><p cms-style="font-L">现在回看这次人事变化发生的时间点,多少有些微妙。</p><p cms-style="font-L"></p><p cms-style="font-L">2025年下半年开始,公司明确提出“All in AI”,并将千问体系视为未来最核心的技术基础设施之一。在产品层面,阿里将千问打造为面向用户的统一AI入口,春节期间,阿里更是30亿元投入推动用户使用千问。</p><p cms-style="font-L"></p><p cms-style="font-L">作为底层技术的Qwen模型体系,也在持续快速迭代。从开源社区来看,Qwen已经成为全球最受欢迎的开源模型之一,大量开发者和企业基于这一模型进行二次开发。</p><p cms-style="font-L"></p><p cms-style="font-L">但在内部,一些迹象也显示,模型团队与产品体系之间的协同并不完全顺畅,Qwen和千问确实存在一些结构性的张力。在资源分配上,Qwen在训练新一代模型时,团队曾面临算力资源紧张,而部分资源更多被优先用于应用侧增长。在产品化需求上,Qwen的能力转化为用户可感知的产品优势,需要大量工程化和产品化工作。这一过程中,模型团队与产品团队之间的协同并非始终顺畅。</p><p cms-style="font-L"></p><p cms-style="font-L">在林俊旸宣布离开之前,Qwen团队仍保持着相当高频的开源节奏。就在离职消息公布前不久,团队刚刚发布了 Qwen3.5系列多款小尺寸开源模型(0.8B—9B),主打轻量化与高效性能。长期以来,林俊旸一直被视为阿里开源模型路线的重要推动者,林俊旸突然离开,让人们不由得联想到阿里在开源与商业化之间想对现状做出改变。</p><p cms-style="font-L"></p><p cms-style="font-L">关于阿里内部AI组织结构,个人与公司,办公室政治我们不做过多讨论,我们结合Meta和字节讨论一下阿里AI最大的标签,开源。</p><p cms-style="font-L align-Center"></p><p cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">0</font></font><font cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">2</font></font></font></p><p cms-style="font-L strong-Bold align-Center"><font cms-style="font-L strong-Bold align-Center color210">从Llama到Qwen:巨头做开源</font></p><p cms-style="font-L"></p><p cms-style="font-L">如果把时间拨回到2022年,随着 OpenAI 和 Google 加速推进大模型布局并在企业市场与开发者社区迅速建立影响力,大模型逐渐成为新的技术竞争核心,而当时行业的主流路线仍然是闭源,模型能力主要通过API形式提供,核心技术集中在少数公司手中,开发者若想使用最先进的大模型,基本只能依赖这些平台。</p><p cms-style="font-L"></p><p cms-style="font-L">但Meta选择了另一条路径。2022年5月,Meta开放OPT-175B,首次完整公开训练代码和日志。随后在2023年2月发布LLaMA,向研究社区开放权重。真正引爆行业的是2023年7月Llama 2 7B、13B、70B多版本同时发布,并允许商业使用,大模型第一次以相对低成本的方式进入企业和开发者手中。LLaMA迅速成为开源生态的核心底座,也被很多人称为大模型行业的一个“Llama时刻”。</p><p cms-style="font-L"></p><p cms-style="font-L">表面上看,Meta的理由很理想主义。扎克伯格多次表示,像 PyTorch 和LLaMA这样的基础技术更适合开源,因为开源可以形成更大的技术社区,并加速创新速度。</p><p cms-style="font-L"></p><p cms-style="font-L">Meta不依赖出售模型赚钱,核心收入仍然来自广告和应用生态。通过开源建立技术标准,反而可以扩大开发者生态,并反哺自身产品能力。从生态角度看,这一策略确实取得了成功。LLaMA发布后,大量创业公司和企业基于其进行二次训练与应用开发,模型累计下载量达到10亿次级别,在开发者社区迅速成为事实标准。</p><p cms-style="font-L"></p><p cms-style="font-L">然而,高光之下,Meta的开源路线很快陷入双重困境,最终引发剧烈团队动荡,这也为审视阿里的开源选择提供了重要参照。技术层面,2025年4月发布的Llama 4不及预期,不仅被曝“作弊刷榜”,开源也不彻底,口碑与排名暴跌,被阿里Qwen反超,再加上智谱、MiniMax等国内厂商崛起,其开原生态优势彻底失守。</p><p cms-style="font-L"></p><p cms-style="font-L">商业化层面,大模型对占总收入90%以上的核心广告业务帮助有限,仅在Threads等小众产品中少量应用,Meta广告增长核心是加载率提升,与大模型无关,其管理层反复强调大模型赋能,实则是为千亿美金投入争取资本市场耐心。</p><p cms-style="font-L"></p><p cms-style="font-L">Meta投入巨量资源却未获开源相关商业回报,被问及开源盈利方式时也无法明确回答,还暗示未来将调整开源策略,不再完全开源。</p><p cms-style="font-L"></p><p cms-style="font-L">双重压力下,Meta内部“理想主义”与“商业化”的矛盾爆发,坚定支持开源的FAIR实验室创始人LeCun被边缘化后离职,扎克伯格裁掉大量基础研究人员,组建新团队转向闭源,彻底向商业化妥协。</p><p cms-style="font-L align-Center"></p><p cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">0</font></font><font cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">3</font></font></font></p><p cms-style="font-L strong-Bold align-Center"><font cms-style="font-L strong-Bold align-Center color210">字节的token经济学</font></p><p cms-style="font-L"></p><p cms-style="font-L">从Meta的前车之鉴,我们似乎可以从商业化的角度理解阿里的调整。</p><p cms-style="font-L"></p><p cms-style="font-L">阿里CEO吴泳铭近期明确表态,“大模型是下一代的操作系统,而超级AI云是下一代的计算机”,这一定位直接锚定阿里云在阿里AI战略中的核心地位,Qwen作为技术底座,其开源生态价值与技术势能的商业转化,最终都要通过阿里云完成闭环,这也是吴泳铭提出“AI to B与AI to C齐发力”、追加AI投入的核心逻辑。</p><p cms-style="font-L"></p><p cms-style="font-L">国内云市场阿里与字节双雄并立,不同统计口径下两者均“第一”:IDC数据显示,2025年上半年,火山引擎以49.2%的份额稳居公有云大模型服务调用量第一,而阿里云则以26.4%的份额位列同期公有云IaaS市场第一;同期中国AI云服务收入约3.9亿美元,阿里云以23%份额居首,火山引擎以13%排第二,若扩展到整体云基础设施市场,Omdia数据显示阿里以35%的份额保持头部地位,而字节整体云市场份额仅约3%。</p><p cms-style="font-L"></p><p cms-style="font-L">字节将Seed、豆包等核心模型保持闭源,通过火山方舟MaaS平台以token计量收费,依托抖音、剪映等内部业务矩阵平摊基础设施成本,并率先打起价格战,将豆包主力模型推理输入价降至0.8元/百万token,长期维持“地板价”,当前Doubao2.0输出价约2元/百万tokens,这种成熟的token经济学形成正向循环,也支撑其拿下近半的大模型调用量份额。</p><p cms-style="font-L"></p><p cms-style="font-L">反观阿里云,虽坚守开源路线,2026年除夕开源的Qwen3.5-Plus登顶全球最强开源模型,且吴泳铭强调“开源是为了构建生态长城”,但核心商业逻辑仍停留在“模型开源导流、云服务收费”,未围绕token搭建完整商业闭环。</p><p cms-style="font-L"></p><p cms-style="font-L">从商业化的角度,Qwen当前的开源模型矩阵铺陈过广,未来大概率会走向战略性收缩与聚焦。这种聚焦趋势已是行业共识,DeepSeek、Meta Llama系列均已收缩参数档位,聚焦少数旗舰模型,再通过蒸馏生成轻量版本,而Qwen从2.5到3.5版本始终维持8种以上参数规模的庞大矩阵,林俊旸离职前还一次性开源Qwen3.5 Small系列4个小尺寸模型,未来token价格将持续走低,过于庞大的矩阵可能导致多数小模型无法实现商业变现,这一点也能从token调用量差异中窥见一斑。</p><p cms-style="font-L align-Center"></p><p cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">0</font></font><font cms-style="font-L align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210"><font cms-style="font-L strong-Bold align-Center italic color210">4</font></font></font></p><p cms-style="font-L strong-Bold align-Center"><font cms-style="font-L strong-Bold align-Center color210">尾声</font></p><p cms-style="font-L"></p><p cms-style="font-L">林俊旸的离职,肯定不是阿里开源路线的终结,而是其在开源重新校准方向的开始。Meta折戟的教训,字节token经济学的突围,行业内模型矩阵收缩的共识,都在推着阿里走出“重开源、轻商业”的舒适区。</p><p cms-style="font-L"></p><p cms-style="font-L">阿里无需复刻字节的闭源路径,也不必固守过往庞大的开源矩阵,守住开源生态的核心优势,优化商业化闭环,聚焦核心模型、补齐token经济学的短板,才能将Qwen的技术势能真正转化为可持续的商业价值。这场人事调整,是阿里AI战略走向成熟的必经之路。</p><p cms-style="font-L"></p><p cms-style="font-L"></p><p cms-style="font-L"></p><p cms-style="font-L"></p>
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/234553.html