赞
踩
传统的神经网络没有设计记忆结构,难以处理序列数据,循环神经网络(RNN)针对BP神经网络的缺点,增加了信息跨时代传递的结构。
当我们处理与事件发生的时间轴有关系的问题时,比如自然语言处理,文本处理,文字的上下文是有一定的关联性的;时间序列数据,如连续几天的天气状况,当日的天气情况与过去的几天有某些联系;又比如语音识别,机器翻译等
对于RNN,每个时刻的隐藏层除了连接本层的输入层与输出层,还连接上一时刻和下一时刻的隐藏单元。
基于时间的反向传播(Back Propagation Through Time,BPTT):RNN在训练时采用反向传播,还包含从最后一个时间将累积的残差传递回来过程的方法。
LSTM模型属于循环神经网络,LSTM对于RNN的改进主要体现在:
第一层是忘记层,垓层决定细胞状态丢弃什么信息(sigmoid函数的输出决定了状态信息保留多少),把ht-1和xt拼接传给sigmoid函数并输出0~1之间的值,并将值传到细胞状态Ct-1上
第二步是更新层的细胞状态,tanh层用来产生更新值的候选象,sigmoid层的输出值乘到tanh层的输出上。
第三步是旧的细胞状态Ct-1与忘记门ft相乘,再加第二步的更新的部分,产生新的细胞状态Ct
第四步是输出部分,将第三步的Ct,输给tanh函数得到输出值的候选项
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。