官方文档介绍
https://pytorch.org/docs/master/nn.html#convolution-layers
pytorch 中文文档:
https://pytorch-cn.readthedocs.io/zh/latest/
https://pytorch.org/docs/master/generated/torch.nn.Conv1d.html#torch.nn.Conv1d
在由多个输入平面组成的输入信号上应用一维卷积。
讯享网
在最简单的情况下,具有输入大小的图层的输出值 ![]()
讯享网 和输出
可以精确地描述为:

-
讯享网
<ul style="margin-left:0px;"><li> <p><span style="color:#;">在<span style="color:#;">⋆ </span>是有效的运算符, N是一个批处理大小,C表示多个通道, L<span style="color:#;"> </span>是信号序列的长度。该模块支持。</span></p> </li><li> <p><span style="color:#;"> 控制互相关的步幅,单个数字或一个元素的元组。</span></p> </li><li> <p><span style="color:#;">控制点数两侧的隐式填充量。</span></p> </li><li> <p><span style="color:#;">控制内核点之间的间距;也称为àtrous算法。很难描述,但是此 对操作做了很好的可视化。</span></p> </li><li> <p><span style="color:#;">控制输入和输出之间的连接。 并且必须都可以被整除 。例如,</span></p> </li><li> <p><span style="color:#;">在</span>groups<span style="color:#;">= 1时,所有输入都卷积为所有输出。</span></p> </li><li> <p><span style="color:#;">在groups = 2时,该操作等效于并排设置两个conv层,每个conv层看到一半的输入通道并产生一半的输出通道,并且随后都将它们级联。</span></p> </li><li> <p><span style="color:#;">在groups =,每个输入通道都与自己的一组过滤器(</span><img alt="" height="50" src="https://i-blog.csdnimg.cn/blog_migrate/d02890e43eead8715c2d.png" width="118" /> ).</p> </li></ul>
当groups = in_channels和out_channels == K * in_channels时,其中K为正整数,此操作也称为“深度卷积”。
换句话说,对于大小的输入
,可以使用参数执行 深度乘数K的深度卷积![]()
在某些情况下,当在CUDA设备上使用张量时,此运算符可能会选择不确定的算法来提高性能。如果不希望这样做,可以尝试通过设置确定操作(可能以性能为代价)。

https://pytorch.org/docs/master/notes/randomness.html
重现性
在PyTorch发行版,单独的提交或不同的平台上,不能保证完全可重复的结果。此外,即使使用相同的种子,结果在CPU和GPU执行之间也可能无法重现。
但是,您可以采取一些步骤来限制特定平台,设备和PyTorch版本的不确定行为的来源。首先,您可以控制可能导致应用程序的多个执行行为不同的随机性源。其次,您可以配置PyTorch以避免对某些操作使用不确定的算法,这样,在给定相同输入的情况下,对这些操作的多次调用将产生相同的结果。
警告
确定性操作通常比非确定性操作慢,因此对于您的模型,单次运行性能可能会降低。但是,确定性可以通过促进实验,调试和回归测试来节省开发时间。
- in_channels()–输入图像中的通道数
- out_channels()–卷积产生的通道数
- kernel_size(或)–卷积内核的大小
- 步幅(或,可选)–卷积的步幅。默认值:1
- padding(或,可选)–将零填充添加到输入的两侧。默认值:0
- padding_mode(字符串,可选) 默认:
- 膨胀(或,可选)–内核元素之间的间距。默认值:1
- 组(,可选)–从输入通道到输出通道的阻塞连接数。默认值:1
- 偏差(,可选)–如果为,则向输出添加可学习的偏差。默认:

N是一个批处理大小,C表示多个通道, L 是信号序列的长度


版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/193778.html