赞
踩
分词是自然语言处理中的一个重要步骤,它可以帮助我们将文本分成一个个词语,以便更好地理解和分析文本。在计算机视觉、语音识别、机器翻译等领域,分词都扮演着重要的角色。
目前,常用的分词库包括 jieba、pyjieba、wordcloud、pkuseg(本次使用)等。这些库提供了丰富的功能,例如可以对文本进行分词、词性标注、命名实体识别等,可以方便地集成到其他自然语言处理任务中。
pkuseg 是一个基于 Python 的自然语言处理库,主要用于情感分析、文本分类、命名实体识别等任务。该库由日本庆应大学开发,并于 2018 年公开发布。
pkuseg 库采用了深度学习技术,使用了预训练的神经网络模型,可以自动从大量的文本数据中学习到正确的分词模式和特征。因此,相对于传统的分词库,pkuseg 库的分词精度更高,并且可以处理更长的文本。
pkuseg 库提供了多种情感分析算法,包括基于规则、基于机器学习和基于深度学习的方法。同时,该库还支持文本分类和命名实体识别等任务,可以使用单分类、多分类、支持向量机、朴素贝叶斯等算法进行训练和预测。
pkuseg 库的优点是速度快、精度高,并且可以处理多种语言。此外,该库还提供了易于使用的 API,使用户可以更加方便地集成到自己的项目中。
1、pkuseg安装
在安装之前如果pip版本过低可能也会照成安装错误,所以在安装前可以更新一下pip:
python.exe -m pip install --upgrade pip
python.exe为你的解释器路径
注意
安装pkuseg库需要使用python3.8。
第一次运行 会下载相关模型文件。若下载失败可到提示的github网址自行下载,或使用外网运行。
2、ddparser安装
本次安装的依赖有:
LAC==2.1.2 是一个用于自然语言处理的库,提供了多种自然语言处理任务的解决方案,例如文本分类、情感分析、命名实体识别等。该库使用深度学习技术,支持使用预训练模型和自定义模型,支持多种自然语言处理任务,并且提供了易于使用的 API。
paddlepaddle==2.4.0 是一个基于 Python 的自然语言处理库,提供了丰富的自然语言处理算法和模型,包括文本分类、情感分析、命名实体识别、机器翻译等。该库采用了深度学习技术,支持使用预训练模型和自定义模型,并提供了易于使用的 API 和工具。
protobuf==3.20.0 是一个用于数据结构和二进制数据的交换格式的库,通常用于ddparser==1.0.8 是一个用于解析 XML 和 HTML 数据的库,通常用于数据可视化和 Web 应用程序。该库提供了多种解析算法和数据结构,例如 DOM、SAX、HTML parser 等,并且支持多种编程语言。
在安装相关依赖我们一般是选择从源镜像下载 这次我们选择的源为清华镜像相关指令为:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
安装LAC:
pip install --upgrade LAC==2.1.2
安装paddlepaddle:
pip install --upgrade paddlepaddle==2.4.0
安装protobuf:
pip install --upgrade protobuf==3.20.0
安装ddparser:
pip install --upgrade ddparser==1.0.8
1、pkuseg基本使用
运行分词
词性标注
细领域分词
2、ddparser基本使用(代码为学校课程案例)
- # encoding:utf-8
- # 基于百度ddparser实现文本关系抽取
- import os, re
- from ddparser import DDParser
-
- class SVOParser:
- def __init__(self):
- self.parser = DDParser(use_pos=True)
- print('loaded model')
-
- '''文章分句处理, 切分长句,冒号,分号,感叹号等做切分标识'''
-
- def split_sents(self, content):
- return [sentence for sentence in re.split(r'[??!!。;;::\n\r]', content) if sentence]
-
- '''句法分析---为句子中的每个词语维护一个保存句法依存儿子节点的字典'''
- def build_parse_child_dict(self, words, postags, rel_id, relation):
- child_dict_list = []
- format_parse_list = []
- for index in range(len(words)):
- child_dict = dict()
- for arc_index in range(len(rel_id)):
- if rel_id[arc_index] == index+1: #arcs的索引从1开始
- if rel_id[arc_index] in child_dict:
- child_dict[relation[arc_index]].append(arc_index)
- else:
- child_dict[relation[arc_index]] = []
- child_dict[relation[arc_index]].append(arc_index)
- child_dict_list.append(child_dict)
- heads = ['Root' if id == 0 else words[id - 1] for id in rel_id] # 匹配依存父节点词语
- for i in range(len(words)):
- # ['ATT', '李克强', 0, 'nh', '总理', 1, 'n']
- a = [relation[i], words[i], i, postags[i], heads[i], rel_id[i]-1, postags[rel_id[i]-1]]
- format_parse_list.append(a)
-
- return child_dict_list, format_parse_list
-
- '''parser主函数'''
- def parser_main(self, sentence):
- res = self.parser.parse(sentence, )[0]
- words = res["word"]
- postags = res["postag"]
- rel_id = res["head"]
- relation = res["deprel"]
- child_dict_list, format_parse_list = self.build_parse_child_dict(words, postags, rel_id, relation)
- return words, postags, child_dict_list, format_parse_list
-
- """将所有的ATT进行合并"""
- def merge_ATT(self, words, postags, format_parse_list):
- words_ = words
- retain_nodes = set()
- ATTs = []
- ATT = []
- format_parse_list_ = []
- for parse in format_parse_list:
- dep = parse[0]
- if dep in ['ATT', 'ADV']:
- ATT += [parse[2], parse[5]]
- else:
- if ATT:
- body = ''.join([words[i] for i in sorted(set(ATT))])
- ATTs.append(body)
- retain_nodes.add(sorted(set(ATT))[-1])
- words_[sorted(set(ATT))[-1]] = body
- else:
- retain_nodes.add(parse[2])
- ATT = []
- for indx, parse in enumerate(format_parse_list):
- if indx in retain_nodes:
- parse_ = [parse[0], words_[indx], indx, postags[indx], words_[parse[5]], parse[5], postags[parse[5]]]
- format_parse_list_.append(parse_)
- return words_, postags, format_parse_list_, retain_nodes
-
- """基于该结果,提取三元组"""
- def extract(self, words, postags, child_dict_list, arcs, retain_nodes):
- svos = []
- for index in range(len(postags)):
- if index not in retain_nodes:
- continue
- tmp = 1
- # 如果语义角色标记为空,则使用依存句法进行抽取
- if postags[index]:
- # 抽取以谓词为中心的事实三元组
- child_dict = child_dict_list[index]
- # 主谓宾
- if 'SBV' in child_dict and 'VOB' in child_dict:
- # e1s = self.expand_e(words, postags, child_dict_list, child_dict['SBV'][0])
- # e2s = self.expand_e(words, postags, child_dict_list, child_dict['VOB'][0])
- r = words[index]
- e1 = words[child_dict['SBV'][0]]
- e2 = words[child_dict['VOB'][0]]
- if e1.replace(' ', '') and e2.replace(' ', ''):
- svos.append([e1, r, e2])
-
- # 含有介宾关系的主谓动补关系
- if 'SBV' in child_dict and 'CMP' in child_dict:
- e1 = words[child_dict['SBV'][0]]
- cmp_index = child_dict['CMP'][0]
- r = words[index] + words[cmp_index]
- if 'POB' in child_dict_list[cmp_index]:
- e2 = words[child_dict_list[cmp_index]['POB'][0]]
- if e1.replace(' ', '') and e2.replace(' ', ''):
- svos.append([e1, r, e2])
-
- return svos
-
- '''三元组抽取主函数'''
-
- def ruler2(self, words, postags, child_dict_list, arcs):
- svos = []
- for index in range(len(postags)):
- tmp = 1
- # 先借助语义角色标注的结果,进行三元组抽取
- if tmp == 1:
- # 如果语义角色标记为空,则使用依存句法进行抽取
- # if postags[index] == 'v':
- if postags[index]:
- # 抽取以谓词为中心的事实三元组
- child_dict = child_dict_list[index]
- # 主谓宾
- if 'SBV' in child_dict and 'VOB' in child_dict:
- r = words[index]
- e1 = self.complete_e(words, postags, child_dict_list, child_dict['SBV'][0])
- e2 = self.complete_e(words, postags, child_dict_list, child_dict['VOB'][0])
- if e1.replace(' ', '') and e2.replace(' ', ''):
- svos.append([e1, r, e2])
-
- # 定语后置,动宾关系
- relation = arcs[index][0]
- head = arcs[index][2]
- if relation == 'ATT':
- if 'VOB' in child_dict:
- e1 = self.complete_e(words, postags, child_dict_list, head - 1)
- r = words[index]
- e2 = self.complete_e(words, postags, child_dict_list, child_dict['VOB'][0])
- temp_string = r + e2
- if temp_string == e1[:len(temp_string)]:
- e1 = e1[len(temp_string):]
- if temp_string not in e1:
- if e1.replace(' ', '') and e2.replace(' ', ''):
- svos.append([e1, r, e2])
-
- # 含有介宾关系的主谓动补关系
- if 'SBV' in child_dict and 'CMP' in child_dict:
- e1 = self.complete_e(words, postags, child_dict_list, child_dict['SBV'][0])
- cmp_index = child_dict['CMP'][0]
- r = words[index] + words[cmp_index]
- if 'POB' in child_dict_list[cmp_index]:
- e2 = self.complete_e(words, postags, child_dict_list, child_dict_list[cmp_index]['POB'][0])
- if e1.replace(' ', '') and e2.replace(' ', ''):
- svos.append([e1, r, e2])
- return svos
-
- '''对找出的主语或者宾语进行扩展'''
-
- def complete_e(self, words, postags, child_dict_list, word_index):
- child_dict = child_dict_list[word_index]
- prefix = ''
- if 'ATT' in child_dict:
- for i in range(len(child_dict['ATT'])):
- prefix += self.complete_e(words, postags, child_dict_list, child_dict['ATT'][i])
- postfix = ''
- if postags[word_index] == 'v':
- if 'VOB' in child_dict:
- postfix += self.complete_e(words, postags, child_dict_list, child_dict['VOB'][0])
- if 'SBV' in child_dict:
- prefix = self.complete_e(words, postags, child_dict_list, child_dict['SBV'][0]) + prefix
-
- return prefix + words[word_index] + postfix
-
- '''程序主控函数'''
-
- def triples_main(self, content):
- sentences = self.split_sents(content)
- svos = []
- for sentence in sentences:
- print(sentence)
- words, postags, child_dict_list, arcs = self.parser_main(sentence)
- svo = self.ruler2(words, postags, child_dict_list, arcs)
- svos += svo
-
- return svos
-
- '''测试'''
- def test():
- content1 = """环境很好,位置独立性很强,比较安静很切合店名,半闲居,偷得半日闲。点了比较经典的菜品,味道果然不错!烤乳鸽,超级赞赞赞,脆皮焦香,肉质细嫩,超好吃。艇仔粥料很足,香葱自己添加,很贴心。金钱肚味道不错,不过没有在广州吃的烂,牙口不好的慎点。凤爪很火候很好,推荐。最惊艳的是长寿菜,菜料十足,很新鲜,清淡又不乏味道,而且没有添加调料的味道,搭配的非常不错!"""
- content2 = """近日,一条男子高铁吃泡面被女乘客怒怼的视频引发热议。女子情绪激动,言辞激烈,大声斥责该乘客,称高铁上有规定不能吃泡面,质问其“有公德心吗”“没素质”。视频曝光后,该女子回应称,因自己的孩子对泡面过敏,曾跟这名男子沟通过,但对方执意不听,她才发泄不满,并称男子拍视频上传已侵犯了她的隐私权和名誉权,将采取法律手段。12306客服人员表示,高铁、动车上一般不卖泡面,但没有规定高铁、动车上不能吃泡面。
- 高铁属于密封性较强的空间,每名乘客都有维护高铁内秩序,不破坏该空间内空气质量的义务。这也是乘客作为公民应当具备的基本品质。但是,在高铁没有明确禁止食用泡面等食物的背景下,以影响自己或孩子为由阻挠他人食用某种食品并厉声斥责,恐怕也超出了权利边界。当人们在公共场所活动时,不宜过分干涉他人权利,这样才能构建和谐美好的公共秩序。
- 一般来说,个人的权利便是他人的义务,任何人不得随意侵犯他人权利,这是每个公民得以正常工作、生活的基本条件。如果权利可以被肆意侵犯而得不到救济,社会将无法运转,人们也没有幸福可言。如西谚所说,“你的权利止于我的鼻尖”,“你可以唱歌,但不能在午夜破坏我的美梦”。无论何种权利,其能够得以行使的前提是不影响他人正常生活,不违反公共利益和公序良俗。超越了这个边界,权利便不再为权利,也就不再受到保护。
- 在“男子高铁吃泡面被怒怼”事件中,初一看,吃泡面男子可能侵犯公共场所秩序,被怒怼乃咎由自取,其实不尽然。虽然高铁属于封闭空间,但与禁止食用刺激性食品的地铁不同,高铁运营方虽然不建议食用泡面等刺激性食品,但并未作出禁止性规定。由此可见,即使食用泡面、榴莲、麻辣烫等食物可能产生刺激性味道,让他人不适,但是否食用该食品,依然取决于个人喜好,他人无权随意干涉乃至横加斥责。这也是此事件披露后,很多网友并未一边倒地批评食用泡面的男子,反而认为女乘客不该高声喧哗。
- 现代社会,公民的义务一般分为法律义务和道德义务。如果某个行为被确定为法律义务,行为人必须遵守,一旦违反,无论是受害人抑或旁观群众,均有权制止、投诉、举报。违法者既会受到应有惩戒,也会受到道德谴责,积极制止者则属于应受鼓励的见义勇为。如果有人违反道德义务,则应受到道德和舆论谴责,并有可能被追究法律责任。如在公共场所随地吐痰、乱扔垃圾、脱掉鞋子、随意插队等。此时,如果行为人对他人的劝阻置之不理甚至行凶报复,无疑要受到严厉惩戒。
- 当然,随着社会的发展,某些道德义务可能上升为法律义务。如之前,很多人对公共场所吸烟不以为然,烟民可以旁若无人地吞云吐雾。现在,要是还有人不识时务地在公共场所吸烟,必然将成为众矢之的。
- 再回到“高铁吃泡面”事件,要是随着人们观念的更新,在高铁上不得吃泡面等可能产生刺激性气味的食物逐渐成为共识,或者上升到道德义务或法律义务。斥责、制止他人吃泡面将理直气壮,否则很难摆脱“矫情”,“将自我权利凌驾于他人权利之上”的嫌疑。
- 在相关部门并未禁止在高铁上吃泡面的背景下,吃不吃泡面系个人权利或者个人私德,是不违反公共利益的个人正常生活的一部分。如果认为他人吃泡面让自己不适,最好是请求他人配合并加以感谢,而非站在道德制高点强制干预。只有每个人行使权利时不逾越边界,与他人沟通时好好说话,不过分自我地将幸福和舒适凌驾于他人之上,人与人之间才更趋于平等,公共生活才更趋向美好有序。"""
- content3 = '''(原标题:央视独家采访:陕西榆林产妇坠楼事件在场人员还原事情经过)
- 央视新闻客户端11月24日消息,2017年8月31日晚,在陕西省榆林市第一医院绥德院区,产妇马茸茸在待产时,从医院五楼坠亡。事发后,医院方面表示,由于家属多次拒绝剖宫产,最终导致产妇难忍疼痛跳楼。但是产妇家属却声称,曾向医生多次提出剖宫产被拒绝。
- 事情经过究竟如何,曾引起舆论纷纷,而随着时间的推移,更多的反思也留给了我们,只有解决了这起事件中暴露出的一些问题,比如患者的医疗选择权,人们对剖宫产和顺产的认识问题等,这样的悲剧才不会再次发生。央视记者找到了等待产妇的家属,主治医生,病区主任,以及当时的两位助产师,一位实习医生,希望通过他们的讲述,更准确地还原事情经过。
- 产妇待产时坠亡,事件有何疑点。公安机关经过调查,排除他杀可能,初步认定马茸茸为跳楼自杀身亡。马茸茸为何会在医院待产期间跳楼身亡,这让所有人的目光都聚焦到了榆林第一医院,这家在当地人心目中数一数二的大医院。
- 就这起事件来说,如何保障患者和家属的知情权,如何让患者和医生能够多一份实质化的沟通?这就需要与之相关的法律法规更加的细化、人性化并且充满温度。用这种温度来消除孕妇对未知的恐惧,来保障医患双方的权益,迎接新生儿平安健康地来到这个世界。'''
- content4 = '李克强总理今天来我家了,我感到非常荣幸'
- content5 = ''' 以色列国防军20日对加沙地带实施轰炸,造成3名巴勒斯坦武装人员死亡。此外,巴勒斯坦人与以色列士兵当天在加沙地带与以交界地区发生冲突,一名巴勒斯坦人被打死。当天的冲突还造成210名巴勒斯坦人受伤。
- 当天,数千名巴勒斯坦人在加沙地带边境地区继续“回归大游行”抗议活动。部分示威者燃烧轮胎,并向以军投掷石块、燃烧瓶等,驻守边境的以军士兵向示威人群发射催泪瓦斯并开枪射击。'''
- extractor = SVOParser()
- svos = extractor.triples_main(content5)
- print('svos', svos)
- for svo in svos:
- print(svo)
-
-
-
- if __name__ == '__main__':
- print("loading model...")
- test()
-

Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。