8 月 7 日消息,通义千问 Qwen 昨日(8 月 6 日)发布公告,宣布,推出 Qwen3-4B-Instruct-2507 和 Qwen3-4B-Thinking-2507 两个模型,大幅提升性能。
官方表示,SLM(Small Language Models)对 Agentic AI 的发展极具价值,“2507”版本的 Qwen3-4B 模型,体积小,性能强,对手机等端侧硬件部署尤为友好。

IT之家援引博文介绍,在非推理(non-thinking)领域,Qwen3-4B-Instruct-2507 显著提升通用能力,目标成为更全能的端侧利器。
该模型掌握更多语言和长尾知识,上下文理解扩展至 256K,小模型也能处理长文本。该模型通用能力超越了闭源的小尺寸模型 GPT-4.1-nano,性能接近等规模的 Qwen3-30B-A3B(non-thinking)。
官方表示该模型更像一位高效的“执行专家”,遵循指令、迅速响应,更适合用于内容创作、工具调用等。
在推理(thinking)领域,Qwen3-4B-Thinking-2507 大幅提升了推理能力,AIME25 高达 81.3 分。Qwen3-4B-Thinking-2507 的推理表现可媲美中等模型 Qwen3-30B-Thinking,在聚焦数学能力的 AIME25 测评中,以 4B 参数量斩获惊人的 81.3 分的好成绩。

官方表示该模型像一位严谨的“学术专家”,面对复杂问题逐步推理,完成任务更深入可靠。




版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/223440.html