2025年pointnet++网络(pointnet++网络模型)

pointnet++网络(pointnet++网络模型)p id 0V98S22A PointNet 是点云理解领域最有影响力的神经网络模型之一 虽然 PointNet 在性能上已被一些最新的方法如 PointMLP 和 Point Transformer 超越 但是我们发现这些方法的 strong 性能提升很大程度上源自于更好的训练策略 strong 数据增强和优化方法 p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p id="0V98S22A">PointNet++ 是点云理解领域最有影响力的神经网络模型之一。虽然PointNet++ 在性能上已被一些最新的方法如PointMLP和Point Transformer超越,但是我们发现这些方法的<strong>性能提升很大程度上源自于更好的训练策略</strong>(数据增强和优化方法),以及<strong>更大的模型而不是模型架构的创新</strong>。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fdf2f3924j00rdr5pg002pd200u000adg00it006h.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p><blockquote id="0V98S282">论文链接: https://arxiv.org/abs/2206.04670 代码链接(已开源): https://github.com/guochengqian/pointnext</blockquote></p><p id="0V98S22G">在这篇工作中,通过对训练策略和模型缩放策略进行系统性的研究,我们重新探究了PointNet++。我们的主要贡献如下:</p><p><ol><li id="0V98S27D"></p><p id="0V98S22H">我们提出了<strong>一套更有效的训练策略</strong>,这些策略显著地提高了PointNet++ 在各个数据集上的表现。例如,在不改变网络结构的情况下,PointNet++ 在ScanObjectNN上准确率(OA)可以从77.9%提升至86.1%, 甚至超越了目前最好的模型PointMLP;</p><p></li><li id="0V98S27E"></p><p id="0V98S22I">我们将inverted residual bottleneck和可分离的MLPs引入了PointNet++ 并以此提出变体结构PointNeXt, 从而实现更高效的模型缩放。<strong>PointNeXt在点云分类和分割的任务上都超越了SOTA</strong>。在ScanObjectNN分类数据集上,PointNeXt达到了87.8%的准确率(OA),比SOTA模型PointMLP高2.3个点,并在推理速度上快了10倍。在S3DIS语义分类数据集上, PointNeXt达到了74.3% mIOU(6-fold),超过SOTA模型Point Transformer (73.5% mIoU)。</p><p></li></ol><br/><strong>一、简介</strong></p><p id="0V98S22J">3D点云领域的大多数工作专注于开发精巧的模块来提取点云的局部细节,例如 KPConv [3] 中的伪网格卷积以及 Point Transformer [4] 中的自注意力层。这些新提出的方法在各种任务中都远优于经典的点云理解网络PointNet++,给人的错觉是 PointNet++ 网络过于简单,无法学习复杂的点云表示。在这项工作中,我们发现影响PointNet++ 性能的原因不在于其网络模块,而在于其陈旧的训练以及模型缩放策略。</p><p id="0V98S22K">首先,我们发现SOTA方法的<strong>大部分性能增益源于改进的训练策略</strong>(即数据增强和优化技术)。例如,在训练过程中随机丢掉颜色信息,可以使得S3DIS上的性能提升5个点的mIoU. 遗憾的是,相比于神经网络结构的改进,<strong>训练策略的进步很少被公开提及和研究</strong>。</p><p id="0V98S22L">其次,SOTA方法的另一大<strong>性能增益来自于模型规模的提升</strong>。然而,我们发现,简单地提高PointNet++ 的卷积数量以及channel size无法提高模型的精度。因此,模型缩放策略, 即如何有效地扩展模型的深度(用更多卷积层)和广度(用更大的channel size),是一个很值得研究的话题。</p><p id="0V98S22M">基于上述两点,本**出了如下贡献:</p><p><ul><li id="0V98S27F"></p><p id="0V98S22N">我们首次对点云领域的训练策略进行了系统研究,并表明<strong>仅采用改进的训练策略,PointNet++ 的性能就可以大幅度提升</strong>。 例如,在ScanObjectNN 物体分类任务上的 OA 可以增加 8.2个点,S3DIS 语义分割上的 mIoU 可以增加 13.6个点。改进的训练策略是通用的,可以很容易地应用于提升其他网络的性能(如PointNet[1],DGCNN[9],以及PointMLP[17])。</p><p></li><li id="0V98S27G"></p><p id="0V98S22O">我们提出 PointNeXt,PointNets的下一代版本 (next version)。相比于PointNet++,<strong>PointNeXt在扩展模型规模后能实现较大幅度的精度提升</strong>。PointNeXt在所有研究的任务上都超过了 SOTA,包括3D物体分类<strong>ScanObjectNN OA</strong><strong>87.8</strong><strong>%</strong>(PointMLP 85.7%) 、语义分割<strong>S3DIS 6-fold mIoU</strong><strong>74.9%</strong>(Point Transformer 73.5%)、物体部分分割<strong>ShapeNetPart mIoU</strong><strong>87.2%</strong>(CurveNet 86.8%),同时在推理速度上比 SOTA 更快。</p><p></li></ul><br/><strong>二、背景知识:PointNet++</strong></p><p id="0V98S22P">我们的PointNeXt建立在PointNet++ 的基础上。PointNet++ 使用了U-Net结构,包括编码器(Encoder)和解码器(Decoder)。编码器(Encoder)使用一系列Set Abstraction(SA)模块将点云的特征进行层次化的抽象,而解码器(Decoder)使用相同数目的feature propagation对特征进行上采样。其中,SA模块由一个下采样层(Subsampling)、一个邻居查询层(Grouping)、一组用于提取特征的共享多层感知器 (MLPs),以及一个用于聚合邻居内特征的Reduction层组成. 其中Grouping, MLPs, 以及Rduction层组合可表示为:</p><p id="0V98S22S">其中 是Reduction层(例如max-pooling),它从点 的邻居 中聚合特征。 , , 分别为第 层的输入坐标,输入特征,以及点 的第 个邻居的特征。表示共享的MLPs,它的输入是 和相对坐标 在特征纬度的级联。</p><p id="0V98S22U"><strong>三、方法论:从 PointNet++到PointNeXt</strong></p><p id="0V98S22V">在这一节,我们展示了通过更先进的训练策略以及模型缩放策略提升PointNet++ 的性能。我们从两个小节分别介绍他们:(1)训练策略现代化;(2)网络架构现代化。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2F95585cc0j00rdr5pi007qd200u000big00g20065.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>图一 PointNeXt网络结构。</p><p id="0V98S231">PointNeXt有着和PointNet++ 同样的Set Abstraction和Feature Propagation模块。红框标注处是PointNeXt基于PointNet++ 的改进,包括在模型输入处添加了一层额外的MLP,用于缩放模型架构的Inverted Residual MLP (InvResMLP)模块,以及decoder部分使用与encoder对称的channel size。</p><p><strong>训练策略现代化</strong></p><p id="0V98S232">在这一章节,我们系统并定量化地研究每种数据增强和优化策略。本章节中,我们简述我们的研究方法, 具体的训练策略可见后续的消融实验章节。</p><p><strong>数据增强</strong></p><p id="0V98S233">数据增强是提升神经网络性能的最重要的方法之一,而PointNet++ 使用了简单的数据增强组合如随机旋转,缩放,平移,抖动(jitter)并应用于不同的数据集。最新的一些方法使用了更强的数据增强方法。例如, KPConv[3]在训练时随机的失活(drop)部分颜色信息。在这篇工作中,我们收集了近期方法中用到的常见数据增强方法,并通过叠加实验定量地研究每个数据集上每种数据增强方法的效果。针对每一个数据集,我们提出了一组改进的数据增强方法,其可以大幅度提升了PointNet++ 的性能。</p><p><strong>优化策略</strong></p><p id="0V98S234">优化技术主要包含损失函数(loss function),优化器(optimizer),学习率计划器(learning rate schedulers),和超参数(hyperparmeters)。随着机器学习理论的发展,现代化的神经网络可以被理论上更好的优化器(如AdamW)和更好的损失函数(CrossEntropy with label smoothing)训练。Cosine learning rate decay也在近年被大量使用,因为相比 step decay,它的调参更为简单而且效果不会差。在这篇工作中,我们通过叠加实验量化了每种优化策略对PointNet++的影响。同样的,针对每一个数据集,我们提出了一组改进的优化技术可以进一步提高网络性能。</p><p><strong>模型架构现代化:小修改 → 大改进</strong><strong>感受野缩放</strong></p><p id="0V98S235">感受野是一个神经网络的重要设计,这里有至少两种方式去增大感受野。</p><p><ul><li id="0V98S27H"></p><p id="0V98S236"><strong>采</strong><strong>用更大的半径查询邻居</strong><strong>(radius of ball query),</strong></p><p></li><li id="0V98S27I"></p><p id="0V98S237"><strong>采</strong><strong>用层次化结构</strong></p><p></li></ul><br/></p><p id="0V98S238">由于PointNet++已经采用了层次化结构,这里我们主要研究不同查询半径对性能的影响。<strong>我们发现初始半径对于结果有很大程度上的影响,并且不同数据集上**查询半径不同</strong>。此外,我们发现相对坐标 使得网络优化更难,导致性能下降。因此,我们提出利用相对坐标处以查询半径以实现 的归一化。改进后的公式(1)如下所示:</p><p id="0V98S23B">如果没有归一化,相对坐标 的值会非常小(小于半径)。这就要求网络能学习到更大的权重应用于 。这使得优化变得困难,特别是考虑到权重衰减的正则化手段限制了网络权重的大小。</p><p><br/><strong>模型缩放</strong></p><p id="0V98S23C">PointNet++ 是一个相对较小的网络,PointNet++ 用于分类和分割的模型规模均小于2M。而现在的网络参数普遍在10M以上[3,4]。有趣的是,<strong>我们发现无论是使用更多的SA模块还是使用更大的channel size都不会显着提高准确性,却反而导致thoughput显著下降</strong>。这主要是梯度消失和过度拟合导致的。因此,在本小节中,我们研究如何以有效且高效的方式扩展PointNet++。</p><p id="0V98S23D">我们提出了<strong>Inverted Residual MLP (InvResMLP)模块以实现高效实用的模型缩放</strong>。该模块建立在SA模块上,如图一的中部所示。InvResMLP和SA模块的<strong>不同点</strong>有三个:</p><p><ul><li id="0V98S27J"></p><p id="0V98S23E">为了缓解梯度消失问题 [21](尤其是当网络更深时),我们在模块的输入和输出之间添加了<strong>残差连接</strong>;</p><p></li><li id="0V98S27K"></p><p id="0V98S23F">为了减少计算量,我们引入了<strong>可分离的MLP</strong>并加强逐点特征提取。SA中的3层MLPs都是基于邻域特征计算的。InvResMLP将MLPs分为1层作用于邻域特征(在Grouping层和Reduction层之间),剩下两层作用于点特征(Reduction层后);</p><p></li><li id="0V98S27L"></p><p id="0V98S23G">引入inverted bottleneck的设计 [23] 将第二个 MLP 的输出通道扩展了 4 倍,以提高特征提取的能力。</p><p></li></ul></p><p id="0V98S23H">在PointNet++基础上结合InvResMLP 和图一所示的宏观架构变化,我们提出了PointNeXt。我们将 stem MLP 的channel大小表示为 C,将 InvResMLP 模块的数量表示为 B。<strong>通过改变C和B的值,从而实现PointNeXt在广度和深度层面的缩放</strong>。</p><p id="0V98S23I">当 B = 0 时,每个阶段仅使用一个 SA 模块且不使用 InvResMLP 模块。SA 模块有2个MLP 层,每个 SA 模块内部添加一个残差连接(Residual Conntection)。</p><p id="0V98S23J">当 B ≠ 0 时,InvResMLP 模块被附加在原始 SA 模块之后。在这种情况下,SA 模块只有1个 MLP,以减少计算资源。我们 PointNeXt 系列的配置总结如下:</p><p><ul><li id="0V98S27M"></p><p id="0V98S23K"><strong>PointNeXt-S</strong>: C = 32, B = 0</p><p></li><li id="0V98S27N"></p><p id="0V98S23L"><strong>PointNeXt-B</strong>: C = 32, B = (1, 2, 1, 1)</p><p></li><li id="0V98S27O"></p><p id="0V98S23M"><strong>PointNeXt-L</strong>: C = 32, B = (2, 4, 2, 2)</p><p></li><li id="0V98S27P"></p><p id="0V98S23N"><strong>PointNeXt-XL</strong>: C = 64, B = (3, 6, 3, 3)</p><p></li></ul><br/><strong>四、实验</strong></p><p id="0V98S23O"><strong>在所有研究的数据集上,PointNeXt超越了现有的SOTA方法,并且在性能和效率上都有很好的表现</strong>。 在S3DIS语义分割上,PointNeXt-XL以mIoU/OA/mACC=74.9%/90.3%/83.0%超越了Point Transformer[4]且在推理速度上更快。在ScanObjectNN分类上,PointNeXt-S超越目前的SOTA方法PointMLP[17],且推理速度快十倍。在ShapeNetPart部分分割上,加宽后的模型PointNeXt-S(C=160)达到87.2 Instance mIoU, 超越SOTA CurNet。值得一提的是,PointNeXt是第一个跨越了87%门槛的基于点的点云识别算法。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fd89cfb5ej00rdr5pj004wd200u000e1g00g2007i.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表一 S3DIS数据集上语意分割的结果(6-fold交叉验证)。PointNeXt相较于PointNet++的提升用绿色标注了出来。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2F30a71517j00rdr5pk002vd200u000b8g00g20060.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表二 ScanObjectNN数据集(hardest variant)上的分类结果。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fd014dd51j00rdr5pl002qd200na00gag00g200b8.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表三 ShapeNetPart数据集上的分割结果。<strong>消融实验</strong></p><p id="0V98S23S">表四,表五和表六展示了分别展示了在ScanObjectNN,S3DIS,以及ShapeNetPart数据集上,对于每种训练策略(数据增强,优化方法)和缩放策略的叠加实验结果。</p><p id="0V98S23T">通过叠加实验,我们定量化了每一种策略对模型性能提升的影响,展示出了模型性能一步步提升的过程,对未来的训练策略和缩放策略的研究有一定的启发作用。</p><p id="0V98S23U"><strong>对于数据增强,我们有如下结论:</strong></p><p><ul><li id="0V98S27Q"></p><p id="0V98S23V">data scaling如S3DIS中使用全部点云作为输入,ScanObjectNN中点云重采样(训练阶段从2048点中随机采样1024点作为输入),可以稳定地提升网络性能;</p><p></li><li id="0V98S27R"></p><p id="0V98S240">height appending,将逐点高度作为额外的输入特征,可以提升网络性能,特别是物体分类任务;</p><p></li><li id="0V98S27S"></p><p id="0V98S241">color dropping,随机丢掉颜色信息,可以大幅度提升S3DIS上的分类结果(+5.9 mIoU);</p><p></li><li id="0V98S27T"></p><p id="0V98S242">越大的模型青睐更强的数据增强手段,例如S3DIS上随机旋转点云会损失小模型(PointNet++, PointNeXt-S)的精度,但是可以提升大模型(PointNeXt-{B,L,XL})的精度。</p><p></li></ul></p><p id="0V98S243"><strong>对于优化方法,我们有如下结论:</strong></p><p><ul><li id="0V98S27U"></p><p id="0V98S244">AdamW + SmoothCrossEntropy 是一个更强的优化组合;</p><p></li><li id="0V98S27V"></p><p id="0V98S245">Cosine Learning Rate Decay 与Step Decay相比更易调参,也能达到SOTA的性能。</p><p></li></ul></p><p id="0V98S246"><strong>对于缩放策略,我们有如下结论:</strong></p><p><ul><li id="0V98S280"></p><p id="0V98S247">提出的每一个模型改进(InvResMLP中的每一个部件,以及宏观网络结构的改进)都提升了模型的性能;</p><p></li><li id="0V98S281"></p><p id="0V98S248">改进后的模型具有更强的可扩展性。与naive scaling(增大PointNet++的深度和广度)相比,我们的模型具有显著的性能以及推理速度提升。</p><p></li></ul></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fcj00rdr5pm007ud200u000jtg00g200al.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表四 在 ScanObjectNN 分类数据集上按顺序应用训练和缩放策略的叠加实验。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2F9d70df68j00rdr5po005bd200l200iyg00g200eg.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表五 S3DIS 分割数据集上按顺序应用训练和缩放策略的叠加实验。我们使用浅绿色、紫色、黄色和粉色背景颜色分别表示数据增强、优化技术、感受野缩放和模型缩放。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2F9483d42bj00rdr5pp00ejd200u000i1g00g2009n.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表六 ShapeNetPart 分割数据集上按顺序应用训练和缩放策略的叠加实验。</p><p id="0V98S24C">此外,如表七所示,我们还将训练策略运用到了不同的神经网络上,对训练策略的可泛化性进行了实验。我们<strong>发现了改进训练策略的可泛化性</strong>。我们的训练策略可以被用在其他算法,例如PointNet[1],DGCNN[9],以及PointMLP[17]上,并显著提升他们在ScanObjectNN分类任务上的效果。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fc604c5bcj00rdr5pq0024d200i4006gg00g2005p.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表七 改进训练策略的可泛化性。用改进的训练策略在ScanObjectNN分类数据集上用不同的方法进行了实验。</p><p id="0V98S24E">我们使用性能**的模型 PointNeXt-XL 作为基线,对模型缩放进行了消融实验。我们在S3DIS Area 5上研究了InvResMLP的每个组件以及stage ratio对性能的影响。同时,我们对比了navide scaling的性能。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2022%2F0620%2Fe9f05d54j00rdr5ps00a9d200pk00jyg00g200cj.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>表八 在S3dis Area 5对于模型结构改变的消融实验。- 代表从baseline去除该模块 TP代表Throughput。</p><p><strong>五、讨论和结论</strong></p><p id="0V98S24H">在这篇论文中,我们阐明了通过更好的训练和模型缩放策略,经典的PointNet++ 模型可以超越SOTA。我们定量化了每种数据增强和优化技术的效果,并且提出了一系列先进的训练策略。这些策略不仅可以被用于PointNeXt也能用于其他的代表性算法(如PointNet, DGCNN, PointMLP)上,并且显著地提升这些算法的效果。我们进一步基于PointNet++ 微调,提出了一种缩放友好的网络架构,名为PointNeXt。PointNeXt在多个数据集上都展现了SOTA的性能,易扩展性,并且保持了快速的推理速度。我们期待这篇工作的发现能够帮助研究人员更多地关注训练和模型缩放策略,激励更多类似方向的研究。</p><p><strong>参考文献</strong></p><p id="0V98S24I">[1] Qi, C. R., Su, H., Mo, K., &amp; Guibas, L. J. (2017). Pointnet: Deep learning on point sets for 3d classification and segmentation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 652-660).</p><p id="0V98S24J">[2] Qi, C. R., Yi, L., Su, H., &amp; Guibas, L. J. (2017). Pointnet++: Deep hierarchical feature learning on point sets in a metric space. Advances in neural information processing systems, 30.</p><p id="0V98S24K">[3] Thomas, H., Qi, C. R., Deschaud, J. E., Marcotegui, B., Goulette, F., &amp; Guibas, L. J. (2019). Kpconv: Flexible and deformable convolution for point clouds. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 6411-6420).</p><p id="0V98S24L">[4] Zhao, H., Jiang, L., Jia, J., Torr, P. H., &amp; Koltun, V. (2021). Point transformer. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 16259-16268).</p><p id="0V98S24M">[5] Uy, M. A., Pham, Q. H., Hua, B. S., Nguyen, T., &amp; Yeung, S. K. (2019). Revisiting point cloud classification: A new benchmark dataset and classification model on real-world data. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 1588-1597).</p><p id="0V98S24N">[6] Armeni, I., Sener, O., Zamir, A. R., Jiang, H., Brilakis, I., Fischer, M., &amp; Savarese, S. (2016). 3d semantic parsing of large-scale indoor spaces. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1534-1543).</p><p id="0V98S24O">[7] Chang, A. X., Funkhouser, T., Guibas, L., Hanrahan, P., Huang, Q., Li, Z., … &amp; Yu, F. (2015). Shapenet: An information-rich 3d model repository. arXiv preprint arXiv:1512.03012.</p><p id="0V98S24P">[8] Li, Y., Bu, R., Sun, M., Wu, W., Di, X., &amp; Chen, B. (2018). Pointcnn: Convolution on x-transformed points. Advances in neural information processing systems, 31.</p><p id="0V98S24Q">[9] Wang, Y., Sun, Y., Liu, Z., Sarma, S. E., Bronstein, M. M., &amp; Solomon, J. M. (2019). Dynamic graph cnn for learning on point clouds. Acm Transactions On Graphics (tog), 38(5), 1-12.</p><p id="0V98S24R">[10] Li, G., Muller, M., Thabet, A., &amp; Ghanem, B. (2019). Deepgcns: Can gcns go as deep as cnns?. In Proceedings of the IEEE/CVF international conference on computer vision (pp. 9267-9276).</p><p id="0V98S24S">[11] Hu, Q., Yang, B., Xie, L., Rosa, S., Guo, Y., Wang, Z., … &amp; Markham, A. (2020). Randla-net: Efficient semantic segmentation of large-scale point clouds. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 11108-11117).</p><p id="0V98S24T">[12] Qiu, S., Anwar, S., &amp; Barnes, N. (2021). Semantic segmentation for real point cloud scenes via bilateral augmentation and adaptive fusion. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 1757-1767).</p><p id="0V98S24U">[13] Tang, L., Zhan, Y., Chen, Z., Yu, B., &amp; Tao, D. (2022). Contrastive Boundary Learning for Point Cloud Segmentation. arXiv preprint arXiv:2203.05272.</p><p id="0V98S24V">[14] Qiu, S., Anwar, S., &amp; Barnes, N. (2021). Dense-resolution network for point cloud classification and segmentation. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (pp. 3813-3822).</p><p id="0V98S250">[15] Qiu, S., Anwar, S., &amp; Barnes, N. (2021). Geometric back-projection network for point cloud classification. IEEE Transactions on Multimedia.</p><p id="0V98S251">[16] Cheng, S., Chen, X., He, X., Liu, Z., &amp; Bai, X. (2021). Pra-net: Point relation-aware network for 3d point cloud analysis. IEEE Transactions on Image Processing, 30, 4436-4448.</p><p id="0V98S252">[17] Ma, X., Qin, C., You, H., Ran, H., &amp; Fu, Y. (2022). Rethinking network design and local geometry in point cloud: A simple residual MLP framework. arXiv preprint arXiv:2202.07123.</p><p id="0V98S253">[18] Xiang, T., Zhang, C., Song, Y., Yu, J., &amp; Cai, W. (2021). Walk in the cloud: Learning curves for point clouds shape analysis. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 915-924).</p><p id="0V98S254">[19] Qian, G., Hammoud, H. A. A. K., Li, G., Thabet, A., &amp; Ghanem, B. (2021). Anisotropic Separable Set Abstraction for Efficient Point Cloud Representation Learning. arXiv preprint arXiv:2110.10538.</p><p id="0V98S255">[20] Lai, X., Liu, J., Jiang, L., Wang, L., Zhao, H., Liu, S., … &amp; Jia, J. (2022). Stratified Transformer for 3D Point Cloud Segmentation. arXiv preprint arXiv:2203.14508.</p><p id="0V98S256">[21] He, K., Zhang, X., Ren, S., &amp; Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).</p><p id="0V98S257">[22] Liu, Z., Mao, H., Wu, C. Y., Feichtenhofer, C., Darrell, T., &amp; Xie, S. (2022). A ConvNet for the 2020s. arXiv preprint arXiv:2201.03545.</p><p id="0V98S258">[23] Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., &amp; Chen, L. C. (2018). Mobilenetv2: Inverted residuals and linear bottlenecks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 4510-4520).</p><p><blockquote id="0V98S283">作者: 沙特王子爱学习</blockquote></p><p id="0V98S25B">Illustration b y Marina Mogulska f rom i cons8</p><p id="0V98S25E">-The End-</p><p id="0V98S25K"><strong>扫码观看!</strong></p><p id="0V98S25N"><strong>本周上新!</strong></p><p id="0V98S25U"><strong>“AI技术流”原创投稿计划</strong></p><p id="0V98S260">TechBeat是由将门创投建立的AI学习社区(www.techbeat.net)。社区上线330+期talk视频,900+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。</p><p id="0V98S262"><strong>投稿内容</strong></p><p id="0V98S263"><strong>// 最新技术解读/系统性知识分享 //</strong></p><p id="0V98S264"><strong>// 前沿资讯解说/心得经历讲述 //</strong></p><p id="0V98S266"><strong>投稿须知</strong></p><p id="0V98S267">稿件需要为原创文章,并标明作者信息。</p><p id="0V98S268">我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励</p><p id="0V98S26A"><strong>投稿方式</strong></p><p id="0V98S26B">发送邮件到</p><p id="0V98S26C"><strong></strong></p><p id="0V98S26D">或添加<strong>工作人员微信(chemn493)</strong>投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“<strong>投稿</strong>”二字,获得投稿说明。</p><p id="0V98S26K"><strong>&gt;&gt; 投稿请添加工作人员微信!</strong></p><p id="0V98S26N"><strong>关于我“</strong>门”<br/></p><p id="0V98S26T"><strong>将门</strong>是一家以专注于<strong>发掘、加速及投资技术驱动型创业公司</strong>的新型<strong>创投机构</strong>,旗下涵盖<strong>将门创新服务</strong>、<strong>将门技术社群</strong>以及<strong>将门创投基金</strong>。</p><p id="0V98S26V">将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。</p><p id="0V98S271">如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:</p><p id="0V98S272"></p><p class="f_center"><img src="http://dingyue.ws.126.net/2022/0620/bcd2ee39g00rdr5pw0052d200j000aog0059002y.gif"/><br/></p><p id="0V98S278">点击右上角,把文章分享到朋友圈</p><p id="0V98S27A"><strong>⤵一键送你进入TechBeat快乐星球</strong></p> 

讯享网
小讯
上一篇 2025-05-09 08:21
下一篇 2025-04-19 11:44

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/176343.html