赞
踩
lis = ul.find_all(‘strong’)
years = lis[4].get_text()
education = lis[5].get_text()
for terminalpage in soup.find_all(‘div’, class_=‘terminalpage-main clearfix’):
for box in terminalpage.find_all(‘div’, class_=‘tab-cont-box’):
cont = box.find_all(‘div’, class_=‘tab-inner-cont’)[0]
ps = cont.find_all(‘p’)
for i in range(len(ps) - 1):
requirement += ps[i].get_text().replace(“\n”, “”).strip() # 去掉换行符和空格
scale = soup.find(class_=‘terminal-ul clearfix terminal-company mt20’).find_all(‘li’)[0].strong.get_text()
return {‘years’: years, ‘education’: education, ‘requirement’: requirement, ‘scale’: scale}
本次我们将职位描述写入txt文件,其余信息写入csv文件。
csv文件采用逐行写入的方式这样也可以省点内存,修改write_csv_rows函数:
def write_csv_rows(path, headers, rows):
‘’’
写入行
‘’’
with open(path, ‘a’, encoding=‘gb18030’, newline=‘’) as f:
f_csv = csv.DictWriter(f, headers)
if type(rows) == type({}):
f_csv.writerow(rows)
else:
f_csv.writerows(rows)
添加写txt文件函数:
def write_txt_file(path, txt):
‘’’
写入txt文本
‘’’
with open(path, ‘a’, encoding=‘gb18030’, newline=‘’) as f:
f.write(txt)
我们最重要对职位描述的内容进行词频统计,一些标点符号等会影响统计,使用正则表达式将其剔除:
pattern = re.compile(r’[一-龥]+')
filterdata = re.findall(pattern, job_detail.get(‘requirement’))
write_txt_file(txt_filename, ‘’.join(filterdata))
至此,职位详细信息的获取及保存的工作已经完成,来看一下此时的main函数:
def main(city, keyword, region, pages):
‘’’
主函数
‘’’
csv_filename = ‘zl_’ + city + ‘_’ + keyword + ‘.csv’
txt_filename = ‘zl_’ + city + ‘_’ + keyword + ‘.txt’
headers = [‘job’, ‘years’, ‘education’, ‘salary’, ‘company’, ‘scale’, ‘job_url’]
write_csv_headers(csv_filename, headers)
for i in range(pages):
‘’’
获取该页中所有职位信息,写入csv文件
‘’’
job_dict = {}
html = get_one_page(city, keyword, region, i)
items = parse_one_page(html)
for item in items:
html = get_detail_page(item.get(‘job_url’))
job_detail = get_job_detail(html)
job_dict[‘job’] = item.get(‘job’)
job_dict[‘years’] = job_detail.get(‘years’)
job_dict[‘education’] = job_detail.get(‘education’)
job_dict[‘salary’] = item.get(‘salary’)
job_dict[‘company’] = item.get(‘company’)
job_dict[‘scale’] = job_detail.get(‘scale’)
job_dict[‘job_url’] = item.get(‘job_url’)
pattern = re.compile(r’[一-龥]+')
filterdata = re.findall(pattern, job_detail.get(‘requirement’))
write_txt_file(txt_filename, ‘’.join(filterdata))
write_csv_rows(csv_filename, headers, job_dict)
本节内容为此版本的重点。
4.1 工资统计
我们对各个阶段工资的占比进行统计,分析该行业的薪资分布水平。前面我们已经把数据保存到csv文件里了,接下来要读取salary列:
def read_csv_column(path, column):
‘’’
读取一列
‘’’
with open(path, ‘r’, encoding=‘gb18030’, newline=‘’) as f:
reader = csv.reader(f)
return [row[column] for row in reader]
print(read_csv_column(csv_filename, 3))
#下面为打印结果
[‘salary’, ‘7000’, ‘5000’, ‘25000’, ‘12500’, ‘25000’, ‘20000’, ‘32500’, ‘20000’, ‘15000’, ‘9000’, ‘5000’, ‘5000’, ‘12500’, ‘24000’, ‘15000’, ‘18000’, ‘25000’, ‘20000’, ‘0’, ‘20000’, ‘12500’, ‘17500’, ‘17500’, ‘20000’, ‘11500’, ‘25000’, ‘12500’, ‘17500’, ‘25000’, ‘22500’, ‘22500’, ‘25000’, ‘17500’, ‘7000’, ‘25000’, ‘3000’, ‘22500’, ‘15000’, ‘25000’, ‘20000’, ‘22500’, ‘15000’, ‘15000’, ‘25000’, ‘17500’, ‘22500’, ‘10500’, ‘20000’, ‘17500’, ‘22500’, ‘17500’, ‘25000’, ‘20000’, ‘11500’, ‘11250’, ‘12500’, ‘14000’, ‘12500’, ‘17500’, ‘15000’]
从结果可以看出,除了第一项,其他的都为平均工资,但是此时的工资为字符串,为了方便统计,我们将其转换成整形:
salaries = []
sal = read_csv_column(csv_filename, 3)
for i in range(len(sal) - 1):
if not sal[i] == ‘0’:
salaries.append(int(sal[i + 1]))
print(salaries)
[7000, 5000, 25000, 12500, 25000, 20000, 32500, 20000, 15000, 9000, 5000, 5000, 12500, 24000, 15000, 18000, 25000, 20000, 0, 20000, 12500, 20000, 11500, 17500, 25000, 12500, 17500, 25000, 25000, 22500, 22500, 17500, 17500, 7000, 25000, 3000, 22500, 15000, 25000, 20000, 22500, 15000, 22500, 10500, 20000, 15000, 17500, 17500, 25000, 17500, 22500, 25000, 12500, 20000, 11250, 11500, 14000, 12500, 15000, 17500]
我们用直方图进行展示:
plt.hist(salaries, bins=10 ,)
plt.show()
生成效果图如下:
从图中可以看出工资分布的情况,这样在你找工作时可以做一个参考。
4.2 职位描述词频统计
对职位描述词频统计的意义是可以了解该职位对技能的基本要求,如果正在找工作,可以估计一下自己的要求是否符合该职位;如果想要一年后换工作,那么也可以提前做好准备,迎接新的挑战。
词频统计用到了 jieba、numpy、pandas、scipy库。如果电脑上没有这两个库,执行安装指令:
pip install jieba
pip install pandas
pip install numpy
pip install scipy
4.2.1 读取txt文件
前面已经将职位描述保存到txt文件里了,现在我们将其读出:
def read_txt_file(path):
‘’’
读取txt文本
‘’’
with open(path, ‘r’, encoding=‘gb18030’, newline=‘’) as f:
return f.read()
简单测试一下:
import jieba
import pandas as pd
‘’’
python学习交流群:1136201545更多学习资料可以加群获取
‘’’
content = read_txt_file(txt_filename)
segment = jieba.lcut(content)
words_df=pd.DataFrame({‘segment’:segment})
print(words_df)
segment
0 岗位职责
1 参与
2 公司
3 软件产品
4 后台
5 研发
6 和
7 维护
8 工作
9 参与
10 建筑物
11 联网
12 数据分析
13 算法
14 的
15 设计
16 和
17 开发
18 可
19 独立
20 完成
21 业务
22 算法
23 模块
… …
从结果可以看出:“岗位职责”、“参与”、“公司”、软件产品“、”的“、”和“等单词并没有实际意义,所以我们要将他们从表中删除。
4.2.2 stop word
下面引入一个概念:stop word, 在网站里面存在大量的常用词比如:“在”、“里面”、“也”、“的”、“它”、“为”这些词都是停止词。这些词因为使用频率过高,几乎每个网页上都存在,所以搜索引擎开发人员都将这一类词语全部忽略掉。如果我们的网站上存在大量这样的词语,那么相当于浪费了很多资源。
在百度搜索stpowords.txt进行下载,放到py文件同级目录。接下来测试一下:
content = read_txt_file(txt_filename)
segment = jieba.lcut(content)
words_df=pd.DataFrame({‘segment’:segment})
stopwords=pd.read_csv(“stopwords.txt”,index_col=False,quoting=3,sep=" ",names=[‘stopword’],encoding=‘utf-8’)
words_df=words_df[~words_df.segment.isin(stopwords.stopword)]
print(words_df)
0 岗位职责
1 参与
2 公司
3 软件产品
4 后台
5 研发
7 维护
8 工作
9 参与
10 建筑物
11 联网
12 数据分析
13 算法
15 设计
17 开发
19 独立
21 业务
22 算法
23 模块
24 开发
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。