赞
踩
文本分析基于深度学习和自然语言处理的原则工作。
正则表达式REGEX:指作为需提取内容的前提条件的特定格式化符号数组
条件随机场CRFs:之通过评估特定模式或短语提取文本的机器学习方法,更加精细和灵活。
one-hot是指在一个向量中,只有一个位置上的值是1,其他位置都是0.缺点:无法表现词与词之间的语义关系,当数据量大的时候,维数也会变得很大。
Bag of Words(词袋表示):也成为Count Vectors,每个文档的字词可以使用其出现次数来进行表示。缺点:会忽略文本的表达顺序,如我爱你和你爱我,表示都一样。
N-gram:与Count Vectors类似,不过加入了相邻单词组合成新的单词,并且进行计数。
TF-IDF关键词提取:两部分组成,词频TF和逆文档概率IDF
TF=某个词在文中出现的次数/文本中一共包含多少个词
IDF=log(语料库的文档总数/包含该词的文档数)
余弦相似度
LDA主题模型不关心词的顺序,用bag of words词袋表示。
朴素贝叶斯假定特征与特征相互独立
但是如果词频列表里有很多出现的次数为0,是计算结果可能为0;
解决方法:拉普拉斯平滑系数
例如:特征词个数为6
data.csv数据如下
内容,评价
从编程小白的角度看,入门极佳,好评
很好的入门书,简洁全面,适合小白,好评
讲解全面,许多小细节都有顾及,三个小项目受益匪浅,好评
前半部分讲概念深入浅出,要言不烦,很赞,好评
看了一遍还是不会写,有个概念而已,差评
中规中矩的教科书,零基础的看了依旧看不懂,差评
内容太浅显,个人认为不适合有其它语言编程基础的人,差评
破书一本,差评
适合完完全全的小白读,有其他语言经验的可以去看别的书,差评
基磁知识写的挺好的!,好评
太基础,差评
略_嗦。。适合完全没有编程经验的小白,差评
真的真的不建议买,差评
stopwords.csv上网找一个中文禁用词表即可,我用的是这一篇博客提供的。
https://blog.csdn.net/dilifish/article/details/117885706
import pandas as pd
# 获取数据
data = pd.read_csv("./data/data.csv")
# 数据基本处理
content = data['内容']
# print(content)
# 将评价中的好差评转换为数字
# 添加一列为评价编号,如果是好评评价编号为1,差评为0
data.loc[data.loc[:,'评价']=="好评","评价编号"]=1
data.loc[data.loc[:,'评价']=="差评","评价编号"]=0
print(data)
# 加载停用词
stopwords = []
with open("./data/stopwords.csv","r",encoding="utf-8") as f:
lines=f.readlines()
print(lines)
# 有些数据并不是按照一行一行排序的,而是很乱,一个数据里面含\n进行换行
# 通过下面的方法可以将其变成一行一行排列的
for tmp in lines:
line = tmp.strip()
print(line)
stopwords.append(line)
# 去重
stopwords = list(set(stopwords))
print(stopwords)
去重后的数据
# 内容标准化
# 将每一句话划分成词
comment_list=[]
for tmp in content:
print(tmp)
# 对文本进行切割
seg_list=jieba.cut(tmp,cut_all=False)
print(seg_list) # 这个只能打印出对象
# 拼接字符串
seg_str = ','.join(seg_list)
print(seg_str)
comment_list.append(seg_str)
print(comment_list)
comment_list打印出来
# 统计词的个数
# from sklearn.feature_extraction.text import CountVectorizer
con = CountVectorizer(stop_words=stopwords)
X = con.fit_transform(comment_list)
name = con.get_feature_names_out()
print(X.toarray())
print(name)
打印出来的矩阵
矩阵分别对应的字词
# 准备训练集和测试集 # 训练集 x_train = X.toarray()[:10,:] y_train = data["评价"][:10] # 测试集 x_test = X.toarray()[10:,:] y_test = data["评价"][10:] # 模型训练 # from sklearn.naive_bayes import MultinomialNB # alpha=1即拉普拉斯平滑系数为1 mb = MultinomialNB(alpha=1) mb.fit(x_train,y_train) y_pre = mb.predict(x_test) print("预测值: ",y_pre) print("真实值: ",y_test) # 模型评估 print(mb.score(x_test, y_test))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。