赞
踩
rnn不能并行的原因:不同时间步的隐藏层之间有关联。
rnn中batch的含义
如何理解RNN中的Batch_size?_batch rnn_Forizon的博客-CSDN博客
rnn解决的问题
1 rnn前向传播
2 rnn中的反向传播
还有loss对其他参数的求导,较为复杂。
rnn容易出现梯度消失的问题,因为经过反向传播后,较远时间步的梯度趋近于0,导致模型难以学到远距离的信息。
2 lstm
优点:通过门控机制,来记忆一些长期信息,相应也就保留了更多的梯度,缓解rnn梯度消失的问题。
缺点:
3 cnn
cnn和rnn都是权值共享
cnn的特点:
卷积层虽然可以显著减少网络中连接的数量,但特征映射组中的神经元个数并没有显著减少。如果后面接一个分类器,分类器的输入维数依然很高,很容易过拟合。为了解决这个问题,可以再卷积层之后加上一个pooling layer,从而降低特征维数,避免过拟合。
优点:可以并行
缺点:1单个卷积层难以捕获全局信息(改善方法有使用更大的卷积核、使用池化层、使用多层卷积层、空洞卷积tcn用了因果空洞卷积来处理时间序列问题。
2卷积核从左往右滑动的时候捕获了相对位置关系,但是如果接池化层的话就会损失掉这些信息(所以一般不用池化层)
1x1卷积核的作用
cnn参数
4 transformer
优点:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。