当前位置:   article > 正文

Transformer模型-add & norm(残差连接&归一化)的简明介绍:残差连接,增加深度,不丢失初始的特征;归一化,避免梯度消失,减少运算

add & norm

 今天介绍transformer模型的add & norm(残差连接&归一化)

add代表残差连接(Residual Connection)

残差连接是一种跳过连接,它将输入添加到网络的中间层或输出上。

**残差连接(Residual Connection)**是一种在深度神经网络中使用的连接技术,旨在解决深度神经网络训练过程中的梯度消失和表示瓶颈问题。具体来说,残差连接允许模型的某一层的输出直接跳过一层或多层,作为后续层的输入。这种跳层连接的方式使得梯度可以更容易地反向传播,从而有助于训练深层网络。

在残差网络中,一个或多个层的输出(称为残差)会被添加到这些层的输入中,形成所谓的残差块。通过这种方式,网络能够学习输入和输出之间的残差表示,而不是直接学习从输入到输出的完整映射。这有助于网络更容易地优化和学习复杂的函数。

残差块通常采用两种连接方式:
1)恒等映射:y = x + F(x)
2)投影映射:y = x + F(x) * W,其中W是一个可学习的1x1卷积

norm = Normalization归一化

在transformer里面,使用layer normalization。

具体参看:

Transformer模型-Normalization归一化的简明介绍-CSDN博客icon-default.png?t=N7T8https://blog.csdn.net/ank1983/article/details/137398706

add&norm在transformer的每个子层都出现:

  • add:残差连接,可以增加深度,不丢失初始的特征。
  • norm归一化,因为add把原始的特征加回来,为了避免梯度消失,减少运算,进行归一化处理。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/708263
推荐阅读
相关标签
  

闽ICP备14008679号