2025年关于深度学习的滞后性问题

关于深度学习的滞后性问题2019 12 14 首先 这个问题的提出 是当时最开始学习 LSTM 的时候 看到了一个博客 1 他的实施方案 其实他就是从文章 2 翻译过来的 但是自己修改了一些代码 可以看文章 2 的内容 他做出来的图像有明显的滞后性 但是文章 1 就没有

大家好,我是讯享网,很高兴认识大家。

2019/12/14
首先,这个问题的提出,是当时最开始学习LSTM的时候,看到了一个博客[1],他的实施方案;其实他就是从文章[2]翻译过来的,但是自己修改了一些代码,可以看文章[2]的内容,他做出来的图像有明显的滞后性,但是文章[1]就没有;文章[1]把最后的代码给改了,就是说最后的时候,实际上是他画图的时候故意错位了。
所以这里反应出来一个问题:LSTM存在滞后性。[1]中评论还说,可能是最后一个输入值的权值太大了,这里不是非常理解。
然后我去搜索了这个问题,发现并没有非常好的解释。博客[1]的作者在评论中提到,这种小样本的数据就是出现这种滞后性严重的问题,利用大数据集可以解决;
文章[3]说可能因为是这个数据不是平稳的,他通过平稳数据之后得到的较好的内容;问答[4]的回答是通过改变窗口的大小还有调整网络结构来解决,我稍微修改了一下这个东西,发现有改进,但是这个数据量的确太小了,可能意义也不大。

所以关于这个问题,可能解决的办法就是:


讯享网

  1. 对序列进行平稳
  2. 改变参数
    具体原因还得再看看资料

看下面这个哥们的说法[5]:


小讯
上一篇 2025-02-24 15:52
下一篇 2025-03-10 22:24

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/53815.html