rbo优化器(rms优化器)

rbo优化器(rms优化器)p id 34QVVIF7 始智 AI wisemodel cn 开源社区 p p id 34QVVIFA 始智 AI wisemodel cn 社区是源自中国的中立开放的 AI 开源社区 正在 欢迎加入共同成长 wisemodel 社区上线 H800 H20 等资源上线 价格实惠 灵活方便 支持在线微调训练模型 及和 p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p id="34QVVIF7">始智AI wisemodel.cn开源社区</p><p id="34QVVIFA">始智AI wisemodel.cn社区是源自中国的中立开放的AI开源社区。正在,欢迎加入共同成长。wisemodel社区上线,H800/H20等资源上线,价格实惠,灵活方便,支持在线微调训练模型,及和,并。</p><p id="34QVVIFG">Oryx是一种统一的多模态架构,能够处理图像、视频和多视角3D场景,提供了一种能够按照需求处理<strong>任意空间大小和时间长度</strong>视觉输入的解决方案。</p><p id="34QVVIFH">这一更灵活的多模态模型Oryx由清华大学、腾讯、南洋理工大学的研究者们提出,他们发现现有多模态大语言模型(MLLM)通常将视觉输入进行分辨率的标准化或进行动态切分等操作,以便视觉编码器处理。然而,这些方法对多模态理解并不理想,在处理不同长度的视觉输入时效率较低。</p><p id="34QVVIFI">为了解决上述问题,<strong>Oryx的核心创新点包括:</strong><strong>一个预训练的OryxViT模型,能够将任意原始分辨率的图像编码为视觉令牌;一个动态压缩模块,支持按需对视觉令牌进行1倍到16倍的压缩。</strong>上述设计使Oryx能够在处理不同需求下的任务时保持更高的效率和精度。Oryx通过增强的混合数据和针对上下文检索、空间感知数据的训练,在多模态融合上取得了更强的能力。</p><p id="34QVVIFJ">Oryx版本已经开源,并发布到始智AI wisemodel开源社区,欢迎大家前往使用。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F85dedccbj00sm7vda005bd200u000g0g00u000g0.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIFL">模型及github地址:</p><p id="34QVVIFM">https://wisemodel.cn/models/yuhaodong/Oryx</p><p id="34QVVIFN">https://github.com/Oryx-mllm/Oryx</p><p id="34QVVIFQ"><strong>01</strong></p><p id="34QVVIFT"><strong>介绍</strong></p><p id="34QVVIG0">现有方法简单地将各种视觉输入统一处理,忽略了视觉内容的差异和不同应用的具体需求。例如,早期的MLLM将视觉输入转化为固定分辨率;近期的MLLM通过动态切分方式生成高分辨率的视觉表示。</p><p id="34QVVIG1">然而,由于缺乏支持原始分辨率输入的高质量视觉编码器,这些解决方案仍然是一种妥协。 提供原始分辨率的视觉输入具有以下优势:利用整个图像输入以防止信息丢失;解决边缘情况;提高效率和自然性;具有更高的性能等。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Fcf48c635j00sm7vda0027d200u000ang00u000an.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIG3">图1:按需求理解的概念</p><p id="34QVVIG4">如图1所示,在分辨率和压缩比上的优化可以提高效率,满足实际需求。例如,高分辨率对于与文本相关的任务更重要,而对象层次的任务只需要简单的图像,部分应用场景需要总结极长的视频,其他应用场景需要对每一帧保持高精度。因此,支持时空上的任意分辨率是一种更通用和高效的方案。</p><p id="34QVVIG5">为了解决以上挑战,本文提出了一个<strong>统一的时空理解MLLM框架Oryx</strong>,能够在按需方式下处理任意视觉分辨率、不同时间长度和多样化的任务。Oryx的主要贡献包括:</p><p id="34QVVIG6">l<strong>预训练视觉编码器OryxViT。</strong>通过自适应位置嵌入层和变长自注意力机制,能够并行处理原始分辨率的视觉表示,更加适合语言模型。</p><p id="34QVVIG7">l<strong>动态压缩模块。</strong>能够任意调整下采样比例,支持1倍到16倍压缩的无缝切换,保持精度和长度上的取舍。</p><p id="34QVVIG8">l<strong>更好的数据和训练策略</strong>,能够在图像、视频和3D数据理解上取得优异的性能。</p><p id="34QVVIG9">提供7B/34B两种尺度的Oryx模型,在视频、图像和3D理解任务上表现出色,在7B规模下取得综合最好结果,34B模型超越了部分72B模型的性能,在部分数据集超过GPT-4o、GPT-4V等模型,成为开源模型的新标杆。</p><p id="34QVVIGC"><strong>02</strong></p><p id="34QVVIGF"><strong>方法概览</strong><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F8bj00sm7vda002ld200u000hng00u000hn.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIGM">图2:Oryx方法总览图</p><p id="34QVVIGN"><strong>原始分辨率表示</strong></p><p id="34QVVIGO">此前在图像理解上的工作证明,保持视觉内容的原始形式具有更高的有效性。然而,原始分辨率在MLLM上的应用还未得到探索。MLLM实际上是一个应用原始分辨率的最好环境:视觉输入的来源更加多样,具有不同的需求和格式;语言令牌长度本质是动态的,因此视觉的动态表示可以无缝与后续阶段对接。</p><p id="34QVVIGP">现有的解决方案证明,传统的视觉编码器无法处理原始分辨率输入。因此,我们基于SigLIP模型提出OryxViT视觉编码器。OryxViT通过将位置嵌入矩阵进行缩放插值适应输入内容。通过轻量级的语言模型作为接口,训练视觉编码器的参数,从多个多模态任务下获取数据进行训练,得到OryxViT模型。</p><p id="34QVVIGQ">为了解决批处理过程中动态的序列长度问题,在通道维度上对不同长度的序列进行拼接,通过可变长自注意力操作,独立计算每个视觉输入的注意力矩阵,因此OryxViT可以高效处理不同纵横比的视觉信号,并保持与固定分辨率编码器相同的推理速度。</p><p id="34QVVIGR"><strong>动态压缩模块</strong></p><p id="34QVVIGS">在处理不同长度的视觉输入时,对所有输入一视同仁会降低总体计算效率。我们通过动态压缩模块实现更高比例的压缩,并将不同压缩比的视觉内容统一成一致的模式,从而能够按需控制视觉序列的长度。我们对图像、视频和长视频应用不同压缩比的下采样层,并设置下采样倍率为1倍、4倍、16倍,从而实现可变和极高的压缩比。</p><p id="34QVVIGT">为了减轻下采样的影响,我们采用区域注意力操作对高分辨率、低分辨率特征图进行交互。低分辨率的图像块作为查询向量,通过交叉注意力操作与高分辨率邻近小块进行交互。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Fbbc7abcaj00sm7vdb000gd200u0005ag00u0005a.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIGV">其中,我们通过投影层将Q、K向量投影到更低的维度,并省略了V向量和输出层的投影以保持原始视觉特征。我们通过共享的MLP处理不同压缩比的视觉输入,以保持不同视觉输入的一致性。最终的视觉表示被展平后输入到语言模型进行上下文预测。</p><p id="34QVVIH0"><strong>全能模型:图像、视频、三维理解</strong></p><p id="34QVVIH1">我们进一步扩展了此前多任务MLLM的能力,处理更多样化的情境、不同长度的内容和更广泛的任务。</p><p id="34QVVIH2">视频大海捞针训练。我们认为,处理长视频的关键在于从广泛的上下文中找到特定信息。因此,<strong>我们从MovieNet数据集中获取视频样本,并通过单帧标题生成和两帧差异识别两个任务对模型进行强化训练。</strong></p><p id="34QVVIH3">通过粗略空间关系学习3D知识。3D环境相关的多视图图像缺乏时间或轨迹线索,因此以往的方法在3D任务中难以实现正确的空间理解。我们通过粗略空间关系对应的方法,使得模型在多视角中能够跟随和捕捉空间关联。</p><p id="34QVVIH4"><strong>训练策略、数据组成</strong></p><p id="34QVVIH5">Oryx的训练策略轻量且直接。模型初始化包括视觉编码器OryxViT和大语言模型。第一阶段训练仅涉及图像数据,首先在<strong>LLaVA-1.5-558k</strong>图文对中进行简单的对齐预训练,训练动态压缩模块。此后在4M高质量图文对中进行有监督微调,这些数据从各种开源学术数据集中获取。需要注意的是,我们没有进行大规模的预训练,也没有使用私有的有监督微调数据以获取更好的性能,我们的主要目标是验证架构的有效性。</p><p id="34QVVIH6">在第二阶段,我们通过图像、视频和3D理解的多种视觉输入联合训练Oryx模型,微调策略与第一阶段类似。我们从第一阶段中抽样600k图像数据,并从开源视频数据集中选取多个视频数据集进行混合。此外,我们包含了所提出的视频大海捞针样本、具有粗略空间关系的3D样本。这部分引入的视频和多视角数据共650k。</p><p id="34QVVIH7">我们的训练数据均来源于开源数据集,因此确保了Oryx的可复现性,并提供了较大的进一步改进空间。</p><p id="34QVVIHA"><strong>03</strong></p><p id="34QVVIHD"><strong>实验结果</strong></p><p id="34QVVIHJ"><strong>通用视频理解</strong></p><p id="34QVVIHK">我们选取4个选择题评测标准和3个回答生成评测标准进行通用视频理解能力的测试。Oryx在不同尺度的模型下均取得了有竞争力的表现。在带字幕的VideoMME数据集中,Oryx取得62.6%和67.4%的平均准确率。在NextQA和Perception Test数据集分别超越此前的SOTA结果3.3%和5.4%。在GPT评测的标准下,Oryx表现出色,取得了1.49、3.53和3.76的平均得分。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Fae076e74j00sm7vdb002id200u000ecg00u000ec.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIHM"><strong>长视频理解</strong></p><p id="34QVVIHN">为了专门测试在长视频输入下的能力,我们选取了3个主流且具代表性的长视频理解基准,包括MLVU、LongVideoBench和VideoMME长视频子集。<strong>Oryx在理解长视频内容表现出显著的能力,超越了所有现有的7B模型系列,34B模型在MLVU和LongVideoBench上相比之前最先进的72B模型提升了4.4%和0.9%平均准确率。在MLVU测试集下,Oryx-34B相比GPT-4o高出6.2%。</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Fae2e9b75j00sm7vdb002bd200u000exg00u000ex.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIHP"><strong>视频大海捞针</strong></p><p id="34QVVIHQ">为了测试模型的长视频检索能力,我们进行了视频大海捞针实验。基线模型显示出严重的信息丢失,相比之下,我们的方法在1.6k帧输入的情况下仍然能够准确回答问题。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F474ad919j00sm7vdb000wd200u0007ag00u0007a.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIHS"><strong>图像理解</strong></p><p id="34QVVIHT">Oryx模型在多种有代表性的图像评测基准下保持了开源模型中第一梯队的水平。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Ff2f98c72j00sm7vdc001wd200u000a6g00u000a6.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIHV"><strong>三维空间理解</strong></p><p id="34QVVII0">Oryx在性能上超越此前为3D理解设计的专有模型,也超过最近更新的基于大语言模型的3D模型。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Faej00sm7vdd001od200u000afg00u000af.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVII2"><strong>分析实验</strong><br/></p><p id="34QVVII5"><strong>分辨率和缩放策略</strong>的影响。原始分辨率输入明显好于固定尺寸(保持长宽比不变)图像输入,尤其在特定任务下的数据集。在不同视觉输入分辨率下,MMBench和OCRBench性能均有提升,但原始分辨率是相较而言更简单且有效的策略。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2Fcaf3076ej00sm7vdd000yd200u00098g00u00098.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVII7"><strong>Oryx结构的消融实验。</strong>在视觉编码器维度,OryxViT相比SigLIP具有更优异的图像-语言对齐性能。通过对原始分辨率和动态切分方法的公平比较,此前的视觉编码器无法处理原始分辨率输入,而基于OryxViT,原始分辨率方法明显优于动态切分方法。在我们的训练和测试过程中,我们始终保持原始分辨率输入。</p><p id="34QVVII8">对于连接模块,动态压缩模块在视频测试集中表现出更优越的性能,且平均池化具有更好的结果,这可能是由于无参数降采样能够更好地保留视觉特征分布,并减轻训练的优化压力。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F93a3409ej00sm7vde0013d200u0005rg00u0005r.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIIC"><strong>04</strong></p><p id="34QVVIIF"><strong>案例分析</strong></p><p id="34QVVIIL"><strong>视频描述和总结任务</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F5743e1b0j00sm7vdf003cd200u000hrg00u000hr.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIIN"><strong>基于视频内容的推理和学习</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1031%2F62f911e9j00sm7vdg002ad200u000hzg00u000hz.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="34QVVIIR"><strong>05</strong></p><p id="34QVVIIU"><strong>总结</strong></p><p id="34QVVIJ4">我们提出了Oryx系列,一种能够按需处理不同任务、时间长度、视觉分辨率输入的新架构。<strong>Oryx在时空理解上有突出表现,利用OryxViT创新地处理原始分辨率,采用动态压缩模块进行高效的数据压缩,并应用了更好的训练策略。</strong>Oryx在各种主流图像、视频和3D测试基准中均表现出色。我们希望本工作能够为多模态学习提供一个新视角。</p><p id="34QVVIJ5">作者简介:</p><p id="34QVVIJ6">主要作者来自清华大学智能视觉实验室(i-Vision Group)、腾讯公司和南洋理工大学S-Lab。共同第一作者为清华大学自动化系博士生刘祖炎和南洋理工大学博士生董宇昊,主要研究方向为多模态模型。通讯作者为腾讯高级研究员饶永铭和清华大学自动化系鲁继文教授。</p><p id="34QVVIJ7">编辑:成蕴年</p><p id="34QVVIJB">----- END -----</p><p id="34QVVIJV"><strong>wisemodel相关:</strong></p><p id="34QVVIK2"><strong>系统升级:</strong><br/></p><p id="34QVVIK6"><strong>系列模型:</strong></p><p class="f_center"><img src="http://dingyue.ws.126.net/2024/1031/59acd4e1g00sm7vdi0049d0005s005kg.gif"/><br/></p><p id="34QVVIKI"><strong>关于wisemodel更多</strong></p><p class="f_center"><img src="http://dingyue.ws.126.net/2024/1031/59acd4e1g00sm7vdi0049d0005s005kg.gif"/><br/></p><p id="34QVVIKO">1</p><p id="34QVVIKR"><strong>欢迎持续关注和支持</strong></p><p id="34QVVIL1">开源社区建设需要长期坚持和投入,更需要广大用户的积极参与、贡献和维护,欢迎大家加入wisemodel开源社区的志愿者计划和开源共创计划。期待更多开发者将开源成果,包括模型、数据集和代码等发布到 wisemodel.cn 社区,共建中立、开放的AI开源社区生态。欢迎扫码添加wisemodel微信,申请加入wisemodel社群,持续关注wisemodel.cn开源社区动态,</p><p id="34QVVIL7">2</p><p id="34QVVILA"><strong>欢迎加盟wisemodel开源社区</strong></p><p id="34QVVILD">始智AI wisemodel社区自2023年9月上线以来,逐渐成为影响力日益扩大的中立开放的AI开源社区,为了加快公司发展,我们长期需要技术、运营等人才加盟,技术侧重在AI infra、后端开发,熟悉K8S、模型训练和推理等技术, 以及熟悉开发者生态运营的成员,欢迎感兴趣的朋友加盟,可以通过添加wisemodel微信,或者将简历投递到邮箱:</p><p id="34QVVILJ">3</p><p id="34QVVILM"><strong>欢迎投稿优质内容</strong></p><p id="34QVVILP">欢迎投稿分享人工智能领域相关的优秀研究成果,鼓励高校实验室、大企业研究团队、个人等,在wisemodel平台上分享各类优质内容,可以是AI领域最新论文解读、最新开源成果介绍,也可以是关于AI技术实践、应用和总结等。投稿可以发邮件到,也可以扫码添加wisemodel微信。</p><p id="34QVVILV">4</p><p id="34QVVIM2"><strong>关于wisemodel开源社区</strong></p><p id="34QVVIM5">始智AI wisemodel.cn开源社区由清华校友总会AI大数据专委会副秘书长刘道全创立,旨在打造和建设中立开放的AI开源创新社区,将打造成“HuggingFace”之外最活跃的AI开源社区,汇聚主要AI开源模型、数据集和代码等,欢迎高校科研院所、大型互联网公司、创新创业企业、广大个人开发者,以及政府部门、学会协会、联盟、基金会等,还有投资机构、科技媒体等,共同参与建设AI开源创新生态。</p><p id="34QVVIMB">向上滑动查看</p> 

讯享网
小讯
上一篇 2025-05-14 16:16
下一篇 2025-05-22 17:43

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/192115.html