赞
踩
在介绍我自己的关键字提取之前先介绍一下这个中文处理的包,现在在中文处理里使用非常广泛,也真的效率很高使用便捷。有非常多的功能,也有关键字提取的功能,但是效率一般,不如它的分词功能使用的人多,那么我介绍一下在我的代码会用到的它的2个功能。
结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式,下面对这三种模式分别举例介绍:
精确模式
import jieba
s = u’我想和女朋友一起去北京故宫博物院参观和闲逛。’
1
2
cut = jieba.cut(s)
print ‘【Output】’
print cut
print ‘,’.join(cut)
1
2
3
4
5
【Output】
<generator object cut at 0x7f8dbc0efc30>
我,想,和,女朋友,一起,去,北京故宫博物院,参观,和,闲逛,。
1
2
3
可见分词结果返回的是一个生成器(这对大数据量数据的分词尤为重要)。
全模式
print ‘【Output】’
print ‘,’.join(jieba.cut(s,cut_all = True))
1
2
【Output】
我,想,和,女朋友,朋友,一起,去,北京,北京故宫,北京故宫博物院,故宫,故宫博物院,博物,博物院,参观,和,闲逛,
1
2
可见全模式就是把文本分成尽可能多的词。
搜索引擎模式
print ‘【Output】’
print ‘,’.join(jieba.cut_for_search(s))
1
2
【Output】
我,想,和,朋友,女朋友,一起,去,北京,故宫,博物,博物院,北京故宫博物院,参观,和,闲逛,。
1
2
获取词性
每个词都有其词性,比如名词、动词、代词等,结巴分词的结果也可以带上每个词的词性,要用到jieba.posseg,举例如下:
import jieba.posseg as psg
print ‘【Output】’
print [(x.word,x.flag) for x in psg.cut(s)]
‘’’
[(u’我’, u’r’), (u’想’, u’v’), (u’和’, u’c’), (u’女朋友’, u’n’), (u’一起’, u’m’),
(u’去’, u’v’), (u’北京故宫博物院’, u’ns’), (u’参观’, u’n’), (u’和’, u’c’), (u’闲逛’, u’v’), (u’。’, u’x’)]
‘’’
1
2
3
4
5
6
7
8
9
可以看到成功获取到每个词的词性,这对于我们对分词结果做进一步处理很有帮助,比如只想获取分词结果列表中的名词,那么就可以这样过滤:
print [(x.word,x.flag) for x in psg.cut(s) if x.flag.startswith(‘n’)]
‘’’
[(u’女朋友’, u’n’), (u’北京故宫博物院’, u’ns’), (u’参观’, u’n’)]
‘’’
1
2
3
4
5
6
至于词性的每个字母分别表示什么词性,jieba分词的结果可能有哪些词性,就要去查阅词性对照表了,本文结尾附了一份从网上搜到的词性对照表,想了解更详细的词性分类信息,可以到网上搜索”结巴分词词性对照”。
关键词提取
只要关键词提取准确,新闻推荐就不是什么难事了,在经过各方调查和各种资料的阅读,我发现要想得到非常准确的新闻关键字,即得到某词在文章中的关键程度,有两方面因素都需要考虑:
词本身(词长0.1,词性0.8,词频0.3)0.4
居间度0.6
tw = 0.4 # 词权重
vdw = 0.6 # 居间度权重
lenw = 0.1 # 词长权重
posw = 0.8 # 词性权重
tfw = 0.3 # tf词频权重
1
2
3
4
5
在这里插入图片描述
找到他们的代码计算出相似度之后,我们就需要这篇文章中每两个词汇之间相似度的二维表,然而这个表并不全是0,1表示的,为了大量简化计算,我把所有相似度>0.5的设为1,<0.5的设为0,从而将词汇相似度的二维表抽象成为了一个由顶点和边的图,其中每个顶点就是文章中的一个词,这里需要一点点离散数学的知识了。
def similar_matrix(self, string_data):
“”"
function: 构建语义相关度网络
:param string_data: 待分析的语句
:return: similar_matrix 语义相关度网络
“”"
word_tag_dict = self.word_tag_dictionary()
keys = word_tag_dict.keys()
candidate_words_dict, nwword = CandidateWords().get_candidate_list(string_data)
nwword_words = nwword.values() #order words
length = len(nwword_words)
similar_matrix = numpy.zeros(shape=(length, length))
word_list = list()
for word in nwword_words:
if word in keys:
word_list.append(word)
for i in range(length):
for j in range(length):
if (nwword_words[i] in word_list) and (nwword_words[j] in word_list):
similar_matrix[i][j] = self.similarity(i, j, nwword_words, word_tag_dict)
else:
similar_matrix[i][j] = 0.2
# self.draw_network(similar_matrix, nwword_words)
return similar_matrix
def similarity_network_edges(self, string_data):
similar_matrix = self.similar_matrix(string_data)
row_col = similar_matrix.shape
for i in range(row_col[0]):
for j in xrange(i+1, row_col[0]):
if similar_matrix[i][j] > 0.5:
self.E.append((i, j))
return self.E
新闻推荐
新闻推荐是门大学问了,分为以下几种:
基于内容(相似度)的推荐
基于用户/物品相似度的协同过滤
热点新闻推荐(你看到的那些头条新闻)
基于模型的推荐(通过输入一些用户特征进入模型,产生推荐结果)
混合推荐(以上十八般兵器一起耍!)
这里只做基于内容相似度的推荐,我们依据刚才的关键词及他们的关键程度分,用公式
Similarity(A,B)=Σi∈mTFIDFA∗TFIDFBSimilarity(A,B)=Σi∈mTFIDFA∗TFIDFB
简而言之就是求和两篇文章的相似关键词的关键程度分的乘积
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。