赞
踩
Word2Vec缺点:无法使用全局的统计信息
Glove是一种无监督的Word representation方法。
Count-based模型,如GloVe,本质上是对共现矩阵进行降维。
Glove优点:充分有效的利用了语料库的统计信息,仅仅利用共现矩阵里面的非0元素进行训练,而skip-gram没有很有效的利用语料库中的一些统计信息。
在词对推理数据集上取得了更好的结果
公布了一系列基于GloVe的预训练词向量(https://nlp.stanford.edu/projects/glove/):一般用 glove.840B.300d.zip
glove下载 http://downloads.cs.stanford.edu/nlp/data/glove.840B.300d.zip
国内地址:https://apache-mxnet.s3.cn-north-1.amazonaws.com.cn/gluon/embeddings/glove/glove.840B.300d.zip
GloVe历史意义:推动了基于深度学习的自然语言处理的发展。提供了开源的预训练词向量,为后续模型的对比实验提供参考。
损失函数:
相对于原始的概率,概率的比值更能够区分相关的词和不相关的词,并且能够区分两种相关的词。
Compared to the raw probabilities, the ratio is better able to distinguish relevant words (solid and gas) from irrelevant words (water and fashion) and it is also better able to discriminate between the two relevant words. (3 The GloVe Model P3)
我们提出了一种新的对数双线性回归模型,这种模型结合全局矩阵分解和局部上下文的优点。
The result is a new global log-bilinear regression model that combines the advantages of the two major model families in the literature: global matrix factorization and local context window methods. (Abstract)
相同点:
不同点:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。