当前位置:   article > 正文

多层注意力网络机制(Hierarchical Attention Network)_多层注意力机制

多层注意力机制

该层次attention模型总共分为3层

  • word sequence encoder + word-level attention layer

  • line encoder + line-level attention layer

  • hunk sequence encoder + hunk attention layer

模型结构如下:

 Word encoder.给定一行

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/349372
推荐阅读
相关标签