DeepSeek V3.1 刚刷完存在感,我却更想冲它大喊:R2 到底什么时候掀桌子?
1 月 R1 炸场后,整整 7 个月,友商 GPT-5、Gemini 2.5 你方唱罢我登场,DeepSeek 却只递上一份“合并部署、省 60 张卡”的降本答卷 。省成本当然香,可我要的是“掀桌子”的惊喜!
社区爆料:R2 正在憋万亿 MoE、128K→百万级上下文、原生多模态,还要把推理成本再打骨折 。如果属实,R2 就不是更新,是把现有大模型定价、性能、场景一次性全打翻。
梁文锋,别让“技术打磨”变成“无限跳票”;R2 再不出,用户的耐心就要被 128K 的温柔刀磨光了。
一句话:V3.1 只是热身,R2 才是真正的“王炸”。DeepSeek,等你掀桌!
#你期待DeepSeek下一个版本的改进吗#
1 月 R1 炸场后,整整 7 个月,友商 GPT-5、Gemini 2.5 你方唱罢我登场,DeepSeek 却只递上一份“合并部署、省 60 张卡”的降本答卷 。省成本当然香,可我要的是“掀桌子”的惊喜!
社区爆料:R2 正在憋万亿 MoE、128K→百万级上下文、原生多模态,还要把推理成本再打骨折 。如果属实,R2 就不是更新,是把现有大模型定价、性能、场景一次性全打翻。
梁文锋,别让“技术打磨”变成“无限跳票”;R2 再不出,用户的耐心就要被 128K 的温柔刀磨光了。
一句话:V3.1 只是热身,R2 才是真正的“王炸”。DeepSeek,等你掀桌!
#你期待DeepSeek下一个版本的改进吗#
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/211102.html