赞
踩
作者提出了基于注意力机制的卷积神经网络架构,用于中文命名实体识别。
主要的框架是CNN with the local-attention
和Bi-GRU with global self-attention
总体的框架图如下:
字符的嵌入输入 x x x
独热编码表示
local attention步骤
v ∈ R d h W 1 ; W 2 ∈ R d h ; d e v \in R^{d_h} W_1; W_2 \in R^{{d_h};de} v∈RdhW1;W2∈Rdh;de
卷积步骤
h j c = ∑ k [ W c ∗ h j − k − 1 2 , . . . , j − k + 1 2 + b c ] h^c_j = \sum_k[W^c ∗ h_{j-\frac{k-1}{2},...,j-\frac{k+1}{2}}+b_c] hjc=∑k[Wc∗hj−2k−1,...,j−2k+1+bc]
典型的卷积操作,只不过是最后sum pooling layer
跟BiLSTM+CRF没有什么区别,主要是加了一个中间加了一个global attention
与上面的local attention类似,只不过范围不再是cnn的windows size,而是针对
整个序列
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。