2025年Pointnet++的改进

Pointnet++的改进1 PATs Point Attention Transformers 论文 Modeling Point Clouds with Self Attention and Gumbel Subset Sampling 2019CVPR 上海交大 MoE 实验室和华为诺亚方舟实验室 本文主要改进了 PointNet 中的 FPS 的部分

大家好,我是讯享网,很高兴认识大家。

2019CVPR,上海交大MoE实验室和华为诺亚方舟实验室

本文主要改进了PointNet++中的FPS的部分,使得选取的点更能处理外点,将down sampling的点选取在attention score大的点上。很形象的对比如下图:

在这里插入图片描述
讯享网
接下来就介绍一下本文提出的两个模块。

GSA:Group Shuffle Attention
这一块内容主要就是自注意力机制。

本文使用了Scaled Dot-Product attention(在上面的博客也提到了),具体的GSA的详见论文中的公式(7)(8)和(11)。

对于点x,对应的特征向量是y,通过y=GSA(f)的变换,得到了点的新的特征向量y。在GSA过程中,参考(7)和(8),仍然是使用f内部的信息,与MLP其实作用是一样的,就是计算新的特征。

GSS:Gumbel Subset Sampling
主要是将Pointnet++中的FPS换成了使用Gumbel Softmax进行计算每个点的重要程度,然后根据这个概率选取down sampling的点。

网络结构
在这里插入图片描述
从网络结构看,GSA网络类似于Pointnet++中的MLP,GSS相当于FPS。

本文章提出的方法简单,基本上就是增加网络的输入。将网络的输入由点的坐标(x,y,z)增加到(x,y,z,x2,y2,z2,xy, xz, yz)。基本网络如下:

在这里插入图片描述
2nd Order-Layer
可以从细节看到2nd Order-Layer其实与Pointnet++非常相似,无非就是还做了人工构造了2nd Order的特征。

具体的Spatial-Trans中也加入了2nd Order-Layer。

最后的效果证明,在ModelNet40的数据集上,效果很好。

参考文献:https://blog.csdn.net/wqwwqw1231/article/details/

小讯
上一篇 2025-03-13 12:55
下一篇 2025-01-28 07:12

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/54059.html