深度学习与神经网络 | 邱锡鹏 | 第六章学习笔记 循环神经网络
6.循环神经网络
6.1 给神经网络增加记忆能力
6.2 循环神经网络
6.3 应用到机器学习
s是单个词的意思,b是一个词的开始,e是一个词的结束
没有结果产生的部分就是编码部分,有结果产生的部分就是解码部分
这是之前说的自回归模型
6.4 参数学习
会让第t个时刻的时候收不到关于第k个时刻的损失对地t个时刻的影响 原因就是梯度爆炸或者梯度消失
6.5 如何解决长程依赖问题
让上图的伽马=1即可,但是这个条件很强,很难达到
6.6 GRU 和 LSTM
ft是遗忘门,说的是我们这次应该忘记多少信息
6.7 深层循环神经网络
就是多叠了几层
6.8 应用
6.9 扩展到图结构
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Darlingの妙妙屋!
评论