2025年faiss(Faiss 架构)

faiss(Faiss 架构)p class f center p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2F360c777cj00smgpvw0026d200u000cvg00it0082.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4M3"><strong>新智元报道</strong></p><p id="3579L4M6">编辑:LRST</p><p id="3579L4M8"><strong>【新智元导读】</strong>SegVG是一种新的视觉定位方法,通过将边界框注释转化为像素级分割信号来增强模型的监督信号,同时利用三重对齐模块解决特征域差异问题,提升了定位准确性。实验结果显示,SegVG在多个标准数据集上超越了现有的**模型,证明了其在视觉定位任务中的有效性和实用性。</p><p id="3579L4MB">视觉定位(Visual Grounding)旨在基于自由形式的自然语言文本表达定位图像中的目标物体。</p><p id="3579L4MD">随着多模态推理系统的普及,如视觉问答和图像描述,视觉定位的重要性愈加凸显。已有的研究大致可以分为三类:两阶段方法、单阶段方法和基于Transformer的方法。</p><p id="3579L4MF">尽管这些方法取得了良好的效果,但在注释的利用上仍显得不足,尤其是仅将框注释作为回归的真值样本,限制了模型的性能表现。</p><p id="3579L4MH">具体而言,视觉定位面临的挑战在于其稀疏的监督信号,每对文本和图像仅提供一个边界框标签,与目标检测任务(Object Detection)存在显著不同,因此充分利用框注释至关重要,将其视为分割掩膜(即边界框内的像素赋值为1,外部像素赋值为0),可以为视觉定位提供更细粒度的像素级监督。</p><p id="3579L4MJ">伊利诺伊理工学院、中佛罗里达大学的研究人员提出了一个名为SegVG的新方法,旨在将边界框级的注释转化为分割信号,以提供更为丰富的监督信号。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2F7ddd850dj00smgpvx002dd200u000ayg00id006p.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4MM">论文链接:https://arxiv.org/abs/2407.03200</p><p id="3579L4MN">代码链接:https://github.com/WeitaiKang/SegVG/tree/main</p><p id="3579L4MP">该方法倡导多层多任务编码器-解码器结构,学习回归查询和多个分割查询,以通过回归和每个解码层的分割来实现目标定位。</p><p id="3579L4MR">此外,为了解决由于特征域不匹配而产生的差异,研究中引入了三重对⻬模块,通过三重注意机制更新查询、文本和视觉特征,以确保共享同一空间,从而提高后续的目标检测效果。</p><p id="3579L4MT">综上,SegVG通过最大化边界框注释的利用,提供了额外的像素级监督,并通过三重对⻬消除特征之间的域差异,这在视觉定位任务中具有重要的创新意义。</p><p id="3579L4MU">以下是来自论文中的相关图示,用以进一步说明视觉定位框架的不同:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2F118e9facj00smgpvy00d4d200u000hpg00id00at.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4N4">方法</p><p id="3579L4N8">在本节中,介绍了SegVG方法的各个组件,按数据流的顺序进行说明,包括⻣干网络、Triple Alignment模块以及Multi-layer Multi-task Encoder-Decoder。</p><p id="3579L4NA"><strong>⻣干网络</strong></p><p id="3579L4NC">SegVG方法的视觉⻣干网络和文本⻣干网络分别处理图像和文本数据。视觉⻣干网络使用的是经过Object Detection任务在MSCOCO数据集上预训练的ResNet和DETR的Transformer编码器。</p><p id="3579L4NE">文本⻣干网络使用BERT的嵌入层将输入文本转换为语言Token,在Token前添加一个[CLS]标记,并在末尾添加一个[SEP]标记,随后通过BERT层迭代处理得到语言嵌入。</p><p id="3579L4NG"><strong>Triple Alignment</strong></p><p id="3579L4NI">Triple Alignment模块致力于解决视觉骨干、文本骨干和查询特征之间的域差异。该模块利用注意力机制执行三角形特征采样,确保查询、文本和视觉特征之间的一致性。</p><p id="3579L4NK">输⼊的查询被初始化为可学习的嵌入,包含一个回归查询和多个分割查询。这⼀过程按以下方式进行:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2F7f2c55c9j00smgpvz001ld200u0006mg00id0041.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4NO">通过这种方式,Triple Alignment模块能够在每⼀层迭代帮助三类特征实现有效地对齐。</p><p id="3579L4NQ"><strong>Multi-layer Multi-task Encoder-Decoder</strong></p><p id="3579L4NS">其目标对接阶段的核心部分,旨在通过跨模态融合和目标对接同时执行边框回归任务和边框分割任务。</p><p id="3579L4NU">编码器部分融合了文本和视觉特征,每一层通过多头自注意力层(MHSA)和前馈网络(FFN)过程实现提升。解码器部分则通过bbox2seg范式将边框注释转化为分割掩码,分割掩码将框内的像素标记为前景(值为1),而框外像素则标记为背景(值为0)。</p><p id="3579L4O0">在每一解码层中,一个回归查询用于回归边框,多个分割查询则用于对目标进行分割。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2F12a017afp00smgpvz000ed200u0003cg00id0021.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4O4">上述公式中,各种损失函数(如L1损失、GIoU损失、Focal损失和Dice损失)被结合用于驱动模型的训练过程,使得模型在执行回归和分割任务时获得强化的反馈。</p><p id="3579L4O6">通过将分割输出的信心值转化为Focal损失因子,可以有效地强调那些难以训练的数据样本,以进一步提升模型的性能。</p><p id="3579L4O8">整体而言,SegVG方法实现了对边框注释的最大化利用,并有效解决了多模态特征间的域差异问题,为视觉目标定位任务带来了重要的改进和提升。</p><p id="3579L4OC">实验<br/></p><p id="3579L4OG">在实验部分,研究者对所提出的SegVG模型进行了全面的评估,涉及多个标准数据集和不同的实验设置,以验证其有效性和优越性。</p><p id="3579L4OI"><strong>指标与数据集</strong></p><p id="3579L4OK">研究者采用的主要评估指标是交并比(IoU)和前1准确率,以评估预测边界框与真实边界框的匹配程度。使用的标准基准数据集包括RefCOCO、RefCOCO+、RefCOCOg-g、RefCOCOg-umd以及Refer It Game等。</p><p id="3579L4OM"><strong>实施细节</strong></p><p id="3579L4OO">研究中对数据输入进行了特别配置,使用640x640的图像大小,以及最大文本⻓度设定为40。当图像大小调整时,会保持原始宽高比。模型的训练过程采用AdamW优化器,及其学习率和权重衰减参数。</p><p id="3579L4OQ"><strong>定量结果</strong></p><p id="3579L4OS">在定量实验中,SegVG模型在所有基准数据集中表现出色。例如,在RefCOCO+数据集上,其预先训练模型在各个子集上相较于之前的最先进模型取得了显著提升,分别达到了2.99%、3.7%和2.42%的准确率提升。</p><p id="3579L4OU">在RefCOCOg数据集上,SegVG同样取得了+3.03%、+2.31%和+3.24%的准确率提升。这些结果证明了结合TripleAlignment和Multi-layerMulti-taskEncoder-Decoder后,模型在目标定位和准确性上的提升。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2Fe80d29b1j00smgpw00081d200t200k0g00id00cm.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4P2"><strong>消融研究</strong></p><p id="3579L4P4">进一步分析通过控制变量法对各个模块的有效性进行消融研究。研究显示,加入Triple Alignment模块后,可以有效消除查询、文本及视觉特征之间的领域差异,进而促进后续的目标定位。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2Fbc5250a5j00smgpw1003wd200u000c3g00id007e.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4P8">此外,通过加入Multi-layer Multi-task监督,能够迭代充分利用注释信息,从而增强查询表示的学习能力。</p><p id="3579L4PA"><strong>计算开销比较</strong></p><p id="3579L4PC">研究者还对不同Transformer模型的参数数量和GFLOPS进行了比较,以评估SegVG的计算开销,结果表明,SegVG的计算成本处于合理范围,符合实际应用需求。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2Fbe1cd041j00smgpw1001pd200u0005hg00id003c.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4PG"><strong>定性结果</strong></p><p id="3579L4PI">在定性分析中,通过对比不同模型在目标检测中的表现,SegVG在初始解码层阶段就能准确识别目标位置,相较于对比模型VLTVG而言,表现更加稳健。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2024%2F1105%2Ffj00smgpw200jkd200u000dfg00id0087.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p id="3579L4PN">具体案例中,SegVG成功定位复杂背景下的目标,显示了其在多任务优化时的高度有效性。</p><p id="3579L4PO">参考资料:</p><p id="3579L4PP">https://arxiv.org/abs/2407.03200</p> 

讯享网
小讯
上一篇 2025-05-22 09:00
下一篇 2025-04-19 20:48

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/160109.html