AI基础设施公司RampLabs发布了名为「Latent Briefing」的研究成果,旨在解决多智能体系统中上下文传输导致的Token膨胀问题。该方法通过直接压缩大模型的KV缓存,利用注意力机制在表示层识别并丢弃冗余信息,而非依赖传统的摘要或检索技术。测试结果显示,该方法能使Worker模型的Token消耗最高降低65%,在中等长度文档处理中节省中位数达49%,且整体准确率提升约3%。此外,新算法将压缩耗时缩短至约1.7秒,相比原始算法提速20倍,显著提升了长文档和复杂推理任务的效率。
OpenAI被指“设限逼单”:Pro上线后Plus用户Codex额度疑似大幅缩水AI 基础设施公司 RampLabs 发布了名为 Latent Briefing 的研究成果 旨在解决多智能体系统中上下文传输导致的 Token 膨胀问题 该方法通过直接压缩大模型的 KV 缓存 利用注意力机制在表示层识别并丢弃冗余信息 而非依赖传统的摘要或检索技术 测试结果显示 该方法能使 Worker 模型的 Token 消耗最高降低 65 在中等长度文档处理中节省中位数达 49 且整体准确率提升约 3 此外
AI基础设施公司RampLabs发布了名为「Latent Briefing」的研究成果,旨在解决多智能体系统中上下文传输导致的Token膨胀问题。该方法通过直接压缩大模型的KV缓存,利用注意力机制在表示层识别并丢弃冗余信息,而非依赖传统的摘要或检索技术。测试结果显示,该方法能使Worker模型的Token消耗最高降低65%,在中等长度文档处理中节省中位数达49%,且整体准确率提升约3%。此外,新算法将压缩耗时缩短至约1.7秒,相比原始算法提速20倍,显著提升了长文档和复杂推理任务的效率。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/260121.html