当前位置:   article > 正文

Embedding词嵌入层的原理_单个文章做embeding 大小如何确定

单个文章做embeding 大小如何确定

日萌社

 

人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)


  1. Embedding
  2. keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform',
  3. embeddings_regularizer=None, activity_regularizer=None,
  4. embeddings_constraint=None, mask_zero=False, input_length=None)
  5. 1.将正整数(索引值)转换为固定尺寸的稠密向量。 例如: [[4], [20]] -> [[0.25, 0.1], [0.6, -0.2]]
  6. 该层只能用作模型中的第一层。
  7. 2.Embedding层输入是一维[单个字符/单个单词],那么输出为二维[单个字符/单个单词, embedding_dim];
  8. Embedding层输入是二维[batch_size, 单个字符/单个单词],那么输出为三维[batch_size, 单个字符/单个单词, embedding_dim]。
  9. 1.例子
  10. model = Sequential()
  11. model.add(Embedding(1000, 64, input_length=10))
  12. # 模型将输入一个大小为 (batch, input_length) 的整数矩阵。
  13. # 输入中最大的整数(即词索引)不应该大于 999 (词汇表大小)
  14. # 现在 model.output_shape == (None, 10, 64),其中 None 是 batch 的维度。
  15. # 输入input_array的shape为(batch_size, sequence_length) 的 2D 张量
  16. input_array = np.random.randint(1000, size=(32, 10))
  17. model.compile('rmsprop', 'mse')
  18. #输出output_array的shape为(batch_size, sequence_length, output_dim) 的 3D 张量
  19. output_array = model.predict(input_array)
  20. assert output_array.shape == (32, 10, 64)
  21. 2.输入尺寸
  22. 尺寸为 (batch_size, sequence_length) 的 2D 张量。
  23. 3.输出尺寸
  24. 尺寸为 (batch_size, sequence_length, output_dim) 的 3D 张量。
  25. 4.参数
  26. input_dim: int > 0。词汇表大小, 即,最大整数 index + 1
  27. output_dim: int >= 0。词向量的维度。
  28. embeddings_initializer: embeddings 矩阵的初始化方法 (详见 initializers)。
  29. embeddings_regularizer: embeddings matrix 的正则化方法 (详见 regularizer)。
  30. embeddings_constraint: embeddings matrix 的约束函数 (详见 constraints)。
  31. mask_zero:
  32. 是否把 0 看作为一个应该被遮蔽的特殊的 "padding" 值。这对于可变长的 循环神经网络层 十分有用。
  33. 如果设定为 True,那么接下来的所有层都必须支持 masking,否则就会抛出异常。
  34. 如果 mask_zeroTrue,作为结果,索引 0 就不能被用于词汇表中(input_dim 应该与 vocabulary + 1 大小相同)。
  35. input_length:
  36. 输入序列的长度,当它是固定的时。 如果你需要连接 Flatten 和 Dense 层,
  37. 则这个参数是必须的 (没有它,dense 层的输出尺寸就无法计算)。
  1. import torch.nn as nn
  2. import torch
  3. embedding = nn.Embedding(10, 3)
  4. x = torch.tensor([[0,1],[8,9]])
  5. result = embedding(x)
  6. # print(result)
  7. # tensor([[[ 0.8168, -0.9338, -0.3293],
  8. # [ 0.8791, 0.4560, 1.4109]],
  9. # [[ 0.3612, 0.9988, -0.5982],
  10. # [ 0.8584, -0.5055, 1.5467]]], grad_fn=<EmbeddingBackward>)
  11. """
  12. 设置padding_idx=某个单词对应的索引值
  13. 传入Embedding的索引值某个单词对应的索引值在通过Embedding层之后,该索引值对应的输出权重值全为0.0000
  14. """
  15. embedding = nn.Embedding(10, 3, padding_idx=5)
  16. x = torch.tensor([[0,1],[5,9]])
  17. result = embedding(x)
  18. print(result)
  19. # tensor([[[ 1.1561, 0.2048, -0.1670],
  20. # [-0.4186, -0.1274, -0.9189]],
  21. # [[ 0.0000, 0.0000, 0.0000],
  22. # [-1.3729, -0.5038, -0.5846]]], grad_fn=<EmbeddingBackward>)
  23. """
  24. 报错:RuntimeError: index out of range: Tried to access index 10 out of table with 9 rows.
  25. 报错意思可以翻译为:RuntimeError: index out of range: Tried to access index vocab词表大小 out of table with 单词索引值 rows.
  26. 分析:Embedding(词表大小, 词嵌入维度):
  27. 1.词表大小代表所有不重复单词数的总数大小,词嵌入维度代表一个单词对应的词嵌入维度的向量。
  28. Embedding底层中会构建一个“词表大小*词嵌入维度”的二维权重矩阵,行数即为词表大小,列数即为词嵌入维度。
  29. 每个不重复的词的索引值对应二维权重矩阵中的一行,那么一个单词通过Embedding层输出后为该单词的索引对应那行的词嵌入维度向量,
  30. 也就是说把该单词的索引值对应的二维权重矩阵中的那一行的词嵌入维度向量取出来,作为该单词对应的权重值向量信息。
  31. 2.<start>和<end>同样一开始也是要放到词表WordToIndex和IndexToWord的两个字典中,<start>对应索引值0,<end>对应索引值1。
  32. 3.Embedding层要求传入的单词索引值必须在“0到词表大小减1”的这个范围之间,传入到Embedding层中的单词索引值大于或等于词表大小值的时候,
  33. 就会报错表示单词索引值超出了词表大小范围。
  34. """
  35. embedding = nn.Embedding(10, 3)
  36. x = torch.tensor([[0,1],[5,10]])
  37. result = embedding(x)
  38. print(result)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/366381
推荐阅读
相关标签
  

闽ICP备14008679号