0

0

Python爬虫之六:智联招聘进阶版

爱谁谁

爱谁谁

发布时间:2025-05-14 10:38:01

|

638人浏览过

|

来源于php中文网

原创

运行平台: windows python版本: python3.6 ide: sublime text 其他工具: chrome浏览器

0、写在前面的话

本文是基于基础版上做的修改,如果没有阅读基础版,请移步 Python爬虫之五:抓取智联招聘基础版

在基础版中,构造url时使用了urllib库的urlencode函数:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript"> url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?' + urlencode(paras)    try:        # 获取网页内容,返回html数据        response = requests.get(url, headers=headers)    ...</code>

其实用reuqests库可以完成此工作,本例将该部分改为:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript"> url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?'    try:        # 获取网页内容,返回html数据        response = requests.get(url, params=paras, headers=headers)    ...</code>
1、找到职位链接

为了得到更加详细的职位信息,我们要找到职位链接,在新的页面中寻找数据。上篇文章中我们没有解析职位链接,那再来找一下吧:

立即学习Python免费学习笔记(深入)”;

Python爬虫之六:智联招聘进阶版

修改一下正则表达式:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript"># 正则表达式进行解析    pattern = re.compile('<td class="zwmc".*?href="(.*?)" target="_blank">(.*?)</a>.*?' # 匹配职位详情地址和职位名称        '<td class="gsmc">.*? target="_blank">(.*?)</a>.*?'                             # 匹配公司名称        '<td class="zwyx">(.*?)</td>', re.S)                                            # 匹配月薪          # 匹配所有符合条件的内容    items = re.findall(pattern, html)   </code>
2、求工资平均值

工资有两种形式xxxx-yyyy或者面议,此处取第一种形式的平均值作为分析标准,虽有偏差但是也差不多,这是求职中最重要的一项指标。

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">for item in items:    salary_avarage = 0    temp = item[3]    if temp != '面议':        idx = temp.find('-')        # 求平均工资        salary_avarage = (int(temp[0:idx]) + int(temp[idx+1:]))//2</code>
3、解析职位详细信息3.1 网页解析

第一步已经将职位地址找到,在浏览器打开之后我们要找到如下几项数据:

Python爬虫之六:智联招聘进阶版

在开发者工具中查找这几项数据,如下图所示:

Python爬虫之六:智联招聘进阶版

HTML结构如下所示:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript"># 数据HTML结构<body>|------<div class="terminalpage clearfix">==>|------<div class="terminalpage-left">==>==>|------<ul class="terminal-ul clearfix">==>==>==>|------<li><span>工作经验:</span><strong>3-5年</strong>==>==>==>|------<li><span>最低学历:</span><strong>本科</strong>==>==>|------<div class="terminalpage-main clearfix">==>==>==>|------<div class="tab-cont-box">==>==>==>==>|------<div class="tab-inner-cont">==>==>==>==>==>|------<p>工作职责:</p>==>==>==>==>==>|------<p>********</p>==>==>==>==>==>|------<p>********</p>    # 工作职责详情==>|------<div class="terminalpage-right">    ==>==>|------<div class="company-box">==>==>==>|------<ul class="terminal-ul clearfix terminal-company mt20">==>==>==>==>|------<li><span>公司规模:</span><strong>100-499人</strong></code>
3.2 代码实现

为了学习一下BeautifulSoup库的使用,我们不再使用正则表达式解析,而是BeautifulSoup库解析HTML标签来获得我们想要得到的内容。

解析库的安装:pip install beautifulsoup4

下面介绍一下本例中使用到的功能:

库的引入:from bs4 import BeautifulSoup数据引入:soup = BeautifulSoup(html, 'html.parser') ,其中html是我们要解析的html源码,html.parser指定HTML的解析器为Python标准库。查找标签:find(name,attrs,recursive,text,**kwargs),find返回的匹配结果的第一个元素查找所有标签:find_all(name,attrs,recursive,text,**kwargs)可以根据标签名,属性,内容查找文档,返回找到的所有元素获取内容:get_text()就可以获取文本内容获取子标签:soup.p这种方式就可以获取到soup下的第一个p标签代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def get_job_detail(html):    requirement = ''    # 使用BeautifulSoup进行数据筛选    soup = BeautifulSoup(html, 'html.parser')    # 找到<ul class="terminal-ul clearfix">标签    for ul in soup.find_all('ul', class_='terminal-ul clearfix'):        # 该标签共有8个子标签,分别为:        # 职位月薪|工作地点|发布日期|工作性质|工作经验|最低学历|招聘人数|职位类别        lis = ul.find_all('strong')        # 工作经验        years = lis[4].get_text()        # 最低学历        education = lis[5].get_text()    # 筛选任职要求    for terminalpage in soup.find_all('div', class_='terminalpage-main clearfix'):        for box in terminalpage.find_all('div', class_='tab-cont-box'):            cont = box.find_all('div', class_='tab-inner-cont')[0]            ps = cont.find_all('p')            # "立即申请"按钮也是个p标签,将其排除            for i in range(len(ps) - 1):                requirement += ps[i].get_text().replace("\n", "").strip()   # 去掉换行符和空格    # 筛选公司规模,该标签内有四个或五个<li>标签,但是第一个就是公司规模    scale = soup.find(class_='terminal-ul clearfix terminal-company mt20').find_all('li')[0].strong.get_text()    return {'years': years, 'education': education, 'requirement': requirement, 'scale': scale}</code>

本次我们将职位描述写入txt文件,其余信息写入csv文件

csv文件采用逐行写入的方式这样也可以省点内存,修改write_csv_rows函数:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def write_csv_rows(path, headers, rows):    '''    写入行    '''    with open(path, 'a', encoding='gb18030', newline='') as f:        f_csv = csv.DictWriter(f, headers)        # 如果写入数据为字典,则写入一行,否则写入多行        if type(rows) == type({}):            f_csv.writerow(rows)        else:            f_csv.writerows(rows)</code>

添加写txt文件函数:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def write_txt_file(path, txt):    '''    写入txt文本    '''    with open(path, 'a', encoding='gb18030', newline='') as f:        f.write(txt)</code>

我们最重要对职位描述的内容进行词频统计,一些标点符号等会影响统计,使用正则表达式将其剔除:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript"># 对数据进行清洗,将标点符号等对词频统计造成影响的因素剔除pattern = re.compile(r'[一-龥]+')filterdata = re.findall(pattern, job_detail.get('requirement'))write_txt_file(txt_filename, ''.join(filterdata))</code>

至此,职位详细信息的获取及保存的工作已经完成,来看一下此时的main函数:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def main(city, keyword, region, pages):    '''    主函数    '''    csv_filename = 'zl_' + city + '_' + keyword + '.csv'    txt_filename = 'zl_' + city + '_' + keyword + '.txt'    headers = ['job', 'years', 'education', 'salary', 'company', 'scale', 'job_url']    write_csv_headers(csv_filename, headers)    for i in range(pages):        '''        获取该页中所有职位信息,写入csv文件        '''        job_dict = {}        html = get_one_page(city, keyword, region, i)        items = parse_one_page(html)        for item in items:            html = get_detail_page(item.get('job_url'))            job_detail = get_job_detail(html)            job_dict['job'] = item.get('job')            job_dict['years'] = job_detail.get('years')            job_dict['education'] = job_detail.get('education')            job_dict['salary'] = item.get('salary')            job_dict['company'] = item.get('company')            job_dict['scale'] = job_detail.get('scale')            job_dict['job_url'] = item.get('job_url')            # 对数据进行清洗,将标点符号等对词频统计造成影响的因素剔除            pattern = re.compile(r'[一-龥]+')            filterdata = re.findall(pattern, job_detail.get('requirement'))            write_txt_file(txt_filename, ''.join(filterdata))            write_csv_rows(csv_filename, headers, job_dict)</code>
4、数据分析

本节内容为此版本的重点。

小羊标书
小羊标书

一键生成百页标书,让投标更简单高效

下载
4.1 工资统计

我们对各个阶段工资的占比进行统计,分析该行业的薪资分布水平。前面我们已经把数据保存到csv文件里了,接下来要读取salary列:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def read_csv_column(path, column):    '''    读取一列    '''    with open(path, 'r', encoding='gb18030', newline='') as f:        reader = csv.reader(f)        return [row[column] for row in reader]# main函数里添加print(read_csv_column(csv_filename, 3))#下面为打印结果['salary', '7000', '5000', '25000', '12500', '25000', '20000', '32500', '20000', '15000', '9000', '5000', '5000', '12500', '24000', '15000', '18000', '25000', '20000', '0', '20000', '12500', '17500', '17500', '20000', '11500', '25000', '12500', '17500', '25000', '22500', '22500', '25000', '17500', '7000', '25000', '3000', '22500', '15000', '25000', '20000', '22500', '15000', '15000', '25000', '17500', '22500', '10500', '20000', '17500', '22500', '17500', '25000', '20000', '11500', '11250', '12500', '14000', '12500', '17500', '15000']</code>

从结果可以看出,除了第一项,其他的都为平均工资,但是此时的工资为字符串,为了方便统计,我们将其转换成整形:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">salaries = []sal = read_csv_column(csv_filename, 3)    # 撇除第一项,并转换成整形,生成新的列表    for i in range(len(sal) - 1):        # 工资为'0'的表示招聘上写的是'面议',不做统计        if not sal[i] == '0':            salaries.append(int(sal[i + 1]))    print(salaries)# 下面为打印结果[7000, 5000, 25000, 12500, 25000, 20000, 32500, 20000, 15000, 9000, 5000, 5000, 12500, 24000, 15000, 18000, 25000, 20000, 0, 20000, 12500, 20000, 11500, 17500, 25000, 12500, 17500, 25000, 25000, 22500, 22500, 17500, 17500, 7000, 25000, 3000, 22500, 15000, 25000, 20000, 22500, 15000, 22500, 10500, 20000, 15000, 17500, 17500, 25000, 17500, 22500, 25000, 12500, 20000, 11250, 11500, 14000, 12500, 15000, 17500]</code>

我们用直方图进行展示:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">plt.hist(salaries, bins=10 ,)plt.show()</code>

生成效果图如下:

Python爬虫之六:智联招聘进阶版

从图中可以看出工资分布的情况,这样在你找工作时可以做一个参考。

4.2 职位描述词频统计

对职位描述词频统计的意义是可以了解该职位对技能的基本要求,如果正在找工作,可以估计一下自己的要求是否符合该职位;如果想要一年后换工作,那么也可以提前做好准备,迎接新的挑战。

词频统计用到了 jieba、numpy、pandas、scipy库。如果电脑上没有这两个库,执行安装指令:

pip install jiebapip install pandaspip install numpypip install scipy4.2.1 读取txt文件

前面已经将职位描述保存到txt文件里了,现在我们将其读出:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">def read_txt_file(path):    '''    读取txt文本    '''    with open(path, 'r', encoding='gb18030', newline='') as f:        return f.read()</code>

简单测试一下:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">import jiebaimport pandas as pdcontent = read_txt_file(txt_filename)segment = jieba.lcut(content)words_df=pd.DataFrame({'segment':segment})print(words_df)# 输出结果如下:      segment0        岗位职责1          参与2          公司3        软件产品4          后台5          研发6           和7          维护8          工作9          参与10        建筑物11         联网12       数据分析13         算法14          的15         设计16          和17         开发18          可19         独立20         完成21         业务22         算法23         模块...            ...</code>

从结果可以看出:“岗位职责”、“参与”、“公司”、软件产品“、”的“、”和“等单词并没有实际意义,所以我们要将他们从表中删除。

4.2.2 stop word

下面引入一个概念:stop word, 在网站里面存在大量的常用词比如:“在”、“里面”、“也”、“的”、“它”、“为”这些词都是停止词。这些词因为使用频率过高,几乎每个网页上都存在,所以搜索引擎开发人员都将这一类词语全部忽略掉。如果我们的网站上存在大量这样的词语,那么相当于浪费了很多资源。

百度搜索stpowords.txt进行下载,放到py文件同级目录。接下来测试一下:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">content = read_txt_file(txt_filename)segment = jieba.lcut(content)words_df=pd.DataFrame({'segment':segment})stopwords=pd.read_csv("stopwords.txt",index_col=False,quoting=3,sep=" ",names=['stopword'],encoding='utf-8')words_df=words_df[~words_df.segment.isin(stopwords.stopword)]print(words_df)# 以下为输出结果0        岗位职责1          参与2          公司3        软件产品4          后台5          研发7          维护8          工作9          参与10        建筑物11         联网12       数据分析13         算法15         设计17         开发19         独立21         业务22         算法23         模块24         开发28         产品29         目标31         改进32         创新33         任职35         熟练38         开发39         经验40         优先41         熟悉...       ...</code>

从结果看出,那些常用的stop word比如:“的”、“和”、“可”等已经被剔除了,但是还有一些词如“岗位职责”、“参与”等也没有实际意义,如果对词频统计不产生影响,那么就无所谓,在后面统计时再决定是否对其剔除。

4.2.3 词频统计

重头戏来了,词频统计使用numpy:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">import numpywords_stat = words_df.groupby(by=['segment'])['segment'].agg({"计数":numpy.size})    words_stat = words_stat.reset_index().sort_values(by=["计数"],ascending=False)    print(words_stat)# 以下是爬取全部“北京市海淀区Python工程师”职位的运行结果:    segment   计数362      开发  505590      熟悉  409701      经验  281325      工作  209820      负责  171741      能力  169793      设计  16182       优先  160409      技术  157621      相关  145322    岗位职责  127683      系统  12664       产品  124124904      项目  123671      算法  10778       任职  107532      框架  107591      熟练  104</code>

可以看出,某些词语还是影响了统计结果,我将以下stop word加入stopword.txt中:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">开发、熟悉、熟练、精通、经验、工作、负责、能力、有限、相关、岗位职责、任职、语言、平台、参与、优先、技术、学习、产品、公司、熟练掌握、以上学历</code>

最后运行结果如下:

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">775      设计  136667      系统  109884      项目  105578      熟练   95520      框架   92656      算法   90143      分析   9080       优化   77471     数据库   75693      维护   66235      团队   6572       代码   61478      文档   60879      需求   58766     计算机   56698      编程   56616      研发   49540      沟通   49527      模块   49379      性能   46695      编写   45475    数据结构   44</code>

这样基本上就是对技能的一些要求了,你也可以根据自己的需求再去修改stopword.txt已达到更加完美的效果。

4.2.4 词频可视化:词云

词频统计虽然出来了,可以看出排名,但是不完美,接下来我们将它可视化。使用到wordcloud库,详细介绍见 github ,使用pip install wordcloud进行安装。

代码语言:javascript代码运行次数:0运行复制
<code class="javascript">from scipy.misc import imreadfrom wordcloud import WordCloud, ImageColorGenerator    # 设置词云属性    color_mask = imread('background.jfif')    wordcloud = WordCloud(font_path="simhei.ttf",   # 设置字体可以显示中文                    background_color="white",       # 背景颜色                    max_words=100,                  # 词云显示的最大词数                    mask=color_mask,                # 设置背景图片                    max_font_size=100,              # 字体最大值                    random_state=42,                    width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,                                                   # 那么保存的图片大小将会按照其大小保存,margin为词语边缘距离                    )    # 生成词云, 可以用generate输入全部文本,也可以我们计算好词频后使用generate_from_frequencies函数    word_frequence = {x[0]:x[1]for x in words_stat.head(100).values}    word_frequence_dict = {}    for key in word_frequence:        word_frequence_dict[key] = word_frequence[key]    wordcloud.generate_from_frequencies(word_frequence_dict)    # 从背景图片生成颜色值      image_colors = ImageColorGenerator(color_mask)     # 重新上色    wordcloud.recolor(color_func=image_colors)    # 保存图片    wordcloud.to_file('output.png')    plt.imshow(wordcloud)    plt.axis("off")    plt.show()</code>

运行效果图如下(左图为原图,右图为生成的图片):

Python爬虫之六:智联招聘进阶版

至此,词频统计及其可视化完成。

5、其他想法

本例中进行了两种数据分析,虽为进阶版,但是还是有很多可以继续发挥的地方:

分析工作年限和工资的关系并展示、预测统计不同工作岗位的薪资差别利用多线程或多进程提升效率

推荐阅读:

Python爬虫:十几行代码下载王者荣耀所有皮肤Python爬虫之二:自制简易词典Python爬虫之三:抓取猫眼电影TOP100Python爬虫之四:今日头条街拍美图Python爬虫之五:抓取智联招聘基础版

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

530

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

258

2023.07.05

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

765

2023.07.05

java正则表达式匹配字符串
java正则表达式匹配字符串

在Java中,我们可以使用正则表达式来匹配字符串。本专题为大家带来java正则表达式匹配字符串的相关内容,帮助大家解决问题。

219

2023.08.11

正则表达式空格
正则表达式空格

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。本专题为大家提供正则表达式相关的文章、下载、课程内容,供大家免费下载体验。

356

2023.08.31

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

正则表达式空格如何表示
正则表达式空格如何表示

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。想了解更多正则表达式空格怎么表示的内容,可以访问下面的文章。

244

2023.11.17

正则表达式中如何匹配数字
正则表达式中如何匹配数字

正则表达式中可以通过匹配单个数字、匹配多个数字、匹配固定长度的数字、匹配整数和小数、匹配负数和匹配科学计数法表示的数字的方法匹配数字。更多关于正则表达式的相关知识详情请看本专题下面的文章。php中文网欢迎大家前来学习。

547

2023.12.06

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

1

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号