在线教程丨Deepseek-OCR以极少视觉token数在端到端模型中实现SOTA

在线教程丨Deepseek-OCR以极少视觉token数在端到端模型中实现SOTA众所周知 大语言模型在处理千字 万字或是更长文本时 计算量往往急剧增加 甚至直接导致算力的 烧钱 游戏 也因此制约了 LLM 在处理高密度文本信息场景中的效率边界 当业界不断探索如何优化计算效率时 Deepseek OCR 提出了一个全新的视角 能不能用 看 的方式来高效地 读 文本 基于这个大胆的设想 研究人员发现包含文档文本的单张图像 可以用远少于等价数字文本的符号来表示丰富的信息

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。




众所周知,大语言模型在处理千字、万字或是更长文本时,计算量往往急剧增加,甚至直接导致算力的「烧钱」游戏,也因此制约了 LLM 在处理高密度文本信息场景中的效率边界。


当业界不断探索如何优化计算效率时,Deepseek-OCR 提出了一个全新的视角:能不能用「看」的方式来高效地「读」文本?基于这个大胆的设想,研究人员发现包含文档文本的单张图像,可以用远少于等价数字文本的符号来表示丰富的信息。这意味着,当我们选择将文本信息以一张张图像的形式交给大模型进行理解和记忆时,整体的效率可以得到有效提升。这不再是简单的图像处理,而是一种巧妙的「光学压缩」——利用视觉模态作为文本信息的有效压缩媒介,从而实现了远高于传统文本表示的压缩比。


具体而言,DeepSeek-OCR 包含两个组件:DeepEncoder 和 DeepSeek3B-MoE-A570M。编码器(即 DeepEncoder)负责提取图像特征、分词以及压缩视觉表示,解码器(即 DeepSeek3B-MoE-A570M)用则于根据图像标记和提示生成所需结果。其中 DeepEncoder 作为核心引擎,设计用于在高清输入下保持低激活状态,同时实现高压缩率,以确保视觉 token 的数量既优化又易于管理。实验表明,当文本 token 数量是视觉 token 数量的 10 倍以内(即压缩率 < 10× )时,模型可以实现 97% 的解码(OCR)精度。即使在压缩率为 20× 的情况下,OCR 准确率仍保持在约 60%。


小讯
上一篇 2026-04-07 07:25
下一篇 2026-04-07 07:23

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/219668.html