2025年堆栈自编码学习

堆栈自编码学习转载 http ufldl stanford edu wiki index php E6 A0 88 E5 BC 8F E8 87 AA E7 BC 96 E7 A0 81 E7 AE 97 E6 B3 95 栈式自编码算法 一 概述 逐层贪婪训练法依次训练网络的每一层 进而预训练整个深度神经网络 在本节中

大家好,我是讯享网,很高兴认识大家。

转载:http://ufldl.stanford.edu/wiki/index.php/%E6%A0%88%E5%BC%8F%E8%87%AA%E7%BC%96%E7%A0%81%E7%AE%97%E6%B3%95

栈式自编码算法

一、概述

逐层贪婪训练法依次训练网络的每一层,进而预训练整个深度神经网络。在本节中,我们将会学习如何将自编码器“栈化”到逐层贪婪训练法中,从而预训练(或者说初始化)深度神经网络的权重。


讯享网

栈式自编码神经网络是一个由多层稀疏自编码器组成的神经网络,其前一层自编码器的输出作为其后一层自编码器的输入。对于一个 \textstyle n 层栈式自编码神经网络,我们沿用自编码器一章的各种符号,假定用 \textstyle W^{(k, 1)}, W^{(k, 2)}, b^{(k, 1)}, b^{(k, 2)} 表示第 \textstyle k 个自编码器对应的 \textstyle W^{(1)}, W^{(2)}, b^{(1)}, b^{(2)} 参数,那么该栈式自编码神经网络的编码过程就是,按照从前向后的顺序执行每一层自编码器的编码步骤:

a(l)=f(z(l))z(l+1)=W(l,1)a(l)+b(l,1)(5)(6) (5) a ( l ) = f ( z ( l ) ) (6) z ( l + 1 ) = W ( l , 1 ) a ( l ) + b ( l , 1 )
小讯
上一篇 2025-01-29 20:41
下一篇 2025-03-22 09:42

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/128864.html