百度开源ERNIE-4.5-21B-A3B-Thinking模型 助力复杂推理与长文本任务自动化处理

百度开源ERNIE-4.5-21B-A3B-Thinking模型 助力复杂推理与长文本任务自动化处理p 在 WAVE SUMMIT 深度学习开发者大会 2025 的现场 百度宣布开源其最新研发的 ERNIE 4 5 21B A3B Thinking 思考模型 引发行业广泛关注 这款基于混合专家 MoE 架构构建的模型 总参数规模达 210 亿 通过指令微调与强化学习技术训练 每个 token 激活 30 亿参数 在逻辑推理 数学计算 科学分析 代码与文本生成等需要专业知识的领域展现出显著提升 lt p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

在WAVE SUMMIT深度学习开发者大会2025的现场,百度宣布开源其最新研发的ERNIE-4.5-21B-A3B-Thinking思考模型,引发行业广泛关注。这款基于混合专家(MoE)架构构建的模型,总参数规模达210亿,通过指令微调与强化学习技术训练,每个token激活30亿参数,在逻辑推理、数学计算、科学分析、代码与文本生成等需要专业知识的领域展现出显著提升。

据技术团队介绍,ERNIE-4.5-21B-A3B-Thinking在工具调用能力方面表现突出,可高效支持复杂任务的自动化处理。其128的上下文窗口设计,使其在需要长文本推理的场景中具备独特优势。该模型以Apache License 2.0协议开源,允许商业用途,目前已在HuggingFace、星河社区等主流开源平台同步发布,FastDeploy、vLLM、Transformers等工具链已完成适配,开发者可直接调用。

此次开源的ERNIE-4.5-21B-A3B-Thinking,是在ERNIE-4.5-21B-A3B基础模型上通过深度思考训练优化而来。技术文档显示,该模型在保持210亿参数规模的同时,通过动态参数激活机制实现了计算效率与性能的平衡,特别适用于需要多步骤推理的复杂场景。

同步发布的文心大模型X1.1深度思考模型同样引发关注。该版本在事实准确性、指令遵循能力、智能体交互等方面实现突破性提升。目前,用户可通过文心一言官网、文小言APP体验新模型,企业客户与开发者则可通过百度智能云千帆平台获取完整服务。

回顾今年6月30日,百度曾开源文心大模型4.5系列,包含47B、3B激活参数的MoE模型及0.3B稠密模型等10款变体,实现预训练权重与推理代码的完全公开。此次双模型发布,标志着百度在开源大模型领域的持续深耕,其技术成果已在多个行业场景中实现规模化应用。

小讯
上一篇 2026-04-06 14:38
下一篇 2026-04-06 14:36

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/220504.html