0

0

python爬虫[一] 批量下载妹子图

PHPz

PHPz

发布时间:2017-04-04 10:49:54

|

5352人浏览过

|

来源于php中文网

原创

煎蛋网上的妹子图专题有着质量很高的美女图片,今天分享一下用 python 批量下载这些妹子图的方法。

需要了解的知识和工具:

#1 需要了解 python 的基本语法,对这篇文章来说,你只要知道如何操作 list ,for……in……,如何定义函数就够了。网页抓取、分析和保存文件的函数边用边了解。

#2 需要安装第三方库 BeautifulSoup4。使用 pip 安装是很便利的方法。最新版本的 python 自带了pip工具,windows下按 windows+x快捷键,打开命令提示符(管理员),输入

  pip install beautifulsoup4

回车运行

python爬虫[一] 批量下载妹子图


出现 Successfully installed 之类的提示信息就说明安装已完成。

立即学习Python免费学习笔记(深入)”;

#3 不需要具备html等知识。但查看源代码和查看元素的浏览器还是需要的,如 chrome 和 firefox。

(如果没有 pip ,请自行搜索如何安装 pip.)

一.下载网页

想要下载两千多个网页上的所有图片,首先你要学会下载一个网页 :)。练习下载的网址 url 是:jandan.net/ooxx/page-2397#comments. 使用 chrome 或 firefox浏览器打开后,鼠标右键——查看网页源代码。我们看到的网页,都是浏览器解析这些 使用 html,python0,css 等编写的源代码后呈现给我们的。而图片的地址就包含在这些源代码中,那么第一步就是下载这些html代码。

python爬虫[一] 批量下载妹子图


python爬虫[一] 批量下载妹子图


截取了部分代码

使用 python 自带库 urllib.request 来下载网页 。urllib.request 是一个使用多种协议的、用于访问打开 url 的可扩展库。

    import urllib.request

    url = 'http://jandan.net/ooxx/page-2397#comments'

    res = urllib.request.urlopen(url)

urllib.request.urlopen()这个函数是干嘛的呢?  如它的名字一样,它可以用来打开一个 url 。它既可以接受一个str(我们传的就是),也可以接受一个 Requestpython1。这个python2总是一个可以像 context manager 样工作的对象,并且自带 geturl()、info()、getcode()等方法。

其实我们不用管那么多,只需要记住这个函数可以接受一个网址,然后返回给我们一个包含这个网址所有信息的对象就行了,我们对这个对象进行操作。

现在把 res 对象中的 html代码读出来赋给python3html。使用res.read()方法。

html = res.read()

这时,html中存储的就是 html源代码了!

试着 python4(html)

python爬虫[一] 批量下载妹子图


截取了部分代码。

这时你发现结果和鼠标右键——查看网页源代码出现的内容不太一样。原来read()方法的返回值是 n bytes……这是什么鬼? 好吧,其实我们是可以解析这个返回值并得到图片地址的。但如果你想得到和浏览器中看到的一样的 html 代码,可以将上一行代码改为 

html = res.read().decode('utf-8')

然后print(html)

python爬虫[一] 批量下载妹子图


截取了部分代码。

OK!一样了,这是因为 read()的decode('utf-8')可以把read()的返回值以utf-8编码。但我们仍使用 html = res.read(),因为其中同样包含我们需要的信息。

到目前为止我们只用了4行 python 代码,就把网页 http://jandan.net/ooxx/page-2397#comments  的html代码下载并存储到了变量html中。如下:

import urllib.request

#下载网页

url = 'http://jandan.net/ooxx/page-2397#comments'

res = urllib.request.urlopen(url)

html = res.read()

二.解析出地址

下面,使用 beautifulsoup4 对html进行解析。

如何确定某张图片对应的html代码在哪里呢?在该网页上鼠标右键——检查。这时左半屏是原网页,右半屏是html代码和一堆功能python5。

python爬虫[一] 批量下载妹子图


Elements 左边有个选择箭头,单击一下变为蓝色,再单击左边网页中的图片,就可以看到右边html代码中自动高亮了一部分代码。这部分代码就是这张图片对应的html代码!这个箭头就是用来定位网页中某元素对应的代码的。

python爬虫[一] 批量下载妹子图


仔细看这段代码:

可以看到 src="//wx2.sinaimg.cn/mw600/66b3de17gy1fdrf0wcuscj20p60zktad.jpg"部分 就是这张图片的地址,src 就是 source。src后面的 style则是它的样式,不用管它。这时你可以试验一下,在src前添加http:,访问http://wx2.sinaimg.cn/mw600/66b3de17gy1fdrf0wcuscj20p60zktad.jpg应该就能看到原来的图片了。

所以,src对应的内容就是我们需要的图片链接地址。注意看图片中,src和图片地址链接、style和python6等是类似于  python7-value的对应关系。这与后面提取图片的地址所用的方法有关系。

查看其他图片对应的代码,可以看到它们的格式都是一样的,即都被包含在 python爬虫[一] 批量下载妹子图中。

使用BeautifulSoup()将html解析。除了传入html,我们还传了一个'html.parser'参数,这表明我们希望 BeautifulSoup()函数按html的解析方式对变量html进行解析。parser是句法分析的意思。

soup = BeautifulSoup(html,'html.parser')

这行代码将html解析成一个soup对象。我们可以很方便地对这个对象进行操作。比如只提取包含'img'的文本内容:

result = soup.find_all('img')

用find_all()方法。

print(result)可以看到result是一个列表,每个元素都是src-图片地址键值对,只不过包含 python爬虫[一] 批量下载妹子图等我们不需要的内容。

python爬虫[一] 批量下载妹子图


截取了部分代码。

使用get方法把双引号中的地址提取出来,并在开头加上 http:。

links=[]

for content in result:

    links.apppython8('http:'+content.get('src'))

content.get('src')就是在content中获取键src所对应的值,即双引号中的地址。

links.append()是常见的向列表中添加元素的方法。

print(links)可以看到这个列表里每个元素都是原来双引号中的的图片地址。如下图:

python爬虫[一] 批量下载妹子图


截取了部分代码

使用浏览器打开任何一个地址都能看到相应的图片!YO!这说明我们就差最后一步了,下载它们!

提取地址部分就完成了。代码也是相当的简洁,如下:

RecoveryFox AI
RecoveryFox AI

AI驱动的数据恢复、文件恢复工具

下载

#解析网页

from bs4 import BeautifulSoup

soup = BeautifulSoup(html,'html.parser')

result = soup.find_all('img')

links=[]

for content in result:

    links.append('http:'+content.get('src'))

三.下载图片

最后就是依次访问links中的地址,把图片下载下来!

在开头

 import os

先创建photo文件夹存放下载的图片,以下代码会将photo文件夹创建在这个程序.py文件所在的位置。

if not os.path.exists('photo'):

    os.makepython9s('photo')

我们知道links是个列表,所以最好使用list0来一个一个下载、命名、存放。

i=0

for link in links:

    i+=1

    list1name ='photo\\'+'photo'+str(i)+'.png'

    with open(filename,'w') as file:

        urllib.request.urlretrieve(link,filename)

i是循环变量,i+=1是控制循环的语句。

filename为图片命名,但其实是先创建一个具有此名称的文件,然后把图片写进去。从filename的赋值语句可以看出,'photo\\'说明它位于photo文件夹,后面的 'photo'+str(i)则是为了有序,全下载完后会是 photo1,photo2,photo3这样的感觉~ '.png'是后缀。用 + 号连接list2在python中也是常用的做法。

with这两行语句,将 link中的地址指向的图片获取到本地,然后存入 filename 。

open(filename,'w'),打开filename这个文件夹,'w'表示打开方式是 write 写入。也就是说在这里open()接受了两个参数,一个是文件名(文件路径),一个是打开方式。

urllib.request.urlretrieve(link,filename) 的功能是访问 link 这个链接,然后取回一份拷贝放入 filename中。

3部分都写完后,点击运行!就能在.py文件所在路径发现 photo文件夹,里面全是我们下载的图片啦~

python爬虫[一] 批量下载妹子图


完整代码如下:

import urllib.request

from bs4 import BeautifulSoup

import os

#下载网页

url = 'http://jandan.net/ooxx/page-2397#comments'

res = urllib.request.urlopen(url)

html = res.read()

#解析网页

soup = BeautifulSoup(html,'html.parser')

result = soup.find_all('img')

links=[]

for content in result:

    links.append('http:'+content.get('src'))

#下载并存储图片

if not os.path.exists('photo'):

    os.makedirs('photo')

i=0

for link in links:

    i+=1

    filename ='photo\\'+'photo'+str(i)+'.png'

    with open(filename,'w') as file:

        urllib.request.urlretrieve(link,filename)

这个小程序算是面向过程的写法吧,从上到下,也没有定义函数。这样可能对刚入门的新手更易懂一些。

妹子图的链接

http://jandan.net/ooxx/page-2397#comments 只有中间的数字会在1-2XXX间变化。

url = 'http://jandan.net/ooxx/page-'+str(i)+'#comments'

改变 i 的值就能批量下载了。可是有评论说频繁的访问该网站可能会被封 IP,这点我也不懂,请自行尝试! 

相关文章

python速学教程(入门到精通)
python速学教程(入门到精通)

python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载

相关标签:

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
俄罗斯Yandex引擎入口
俄罗斯Yandex引擎入口

2026年俄罗斯Yandex搜索引擎最新入口汇总,涵盖免登录、多语言支持、无广告视频播放及本地化服务等核心功能。阅读专题下面的文章了解更多详细内容。

178

2026.01.28

包子漫画在线官方入口大全
包子漫画在线官方入口大全

本合集汇总了包子漫画2026最新官方在线观看入口,涵盖备用域名、正版无广告链接及多端适配地址,助你畅享12700+高清漫画资源。阅读专题下面的文章了解更多详细内容。

35

2026.01.28

ao3中文版官网地址大全
ao3中文版官网地址大全

AO3最新中文版官网入口合集,汇总2026年主站及国内优化镜像链接,支持简体中文界面、无广告阅读与多设备同步。阅读专题下面的文章了解更多详细内容。

79

2026.01.28

php怎么写接口教程
php怎么写接口教程

本合集涵盖PHP接口开发基础、RESTful API设计、数据交互与安全处理等实用教程,助你快速掌握PHP接口编写技巧。阅读专题下面的文章了解更多详细内容。

2

2026.01.28

php中文乱码如何解决
php中文乱码如何解决

本文整理了php中文乱码如何解决及解决方法,阅读节专题下面的文章了解更多详细内容。

4

2026.01.28

Java 消息队列与异步架构实战
Java 消息队列与异步架构实战

本专题系统讲解 Java 在消息队列与异步系统架构中的核心应用,涵盖消息队列基本原理、Kafka 与 RabbitMQ 的使用场景对比、生产者与消费者模型、消息可靠性与顺序性保障、重复消费与幂等处理,以及在高并发系统中的异步解耦设计。通过实战案例,帮助学习者掌握 使用 Java 构建高吞吐、高可靠异步消息系统的完整思路。

8

2026.01.28

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

24

2026.01.27

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

122

2026.01.26

edge浏览器怎样设置主页 edge浏览器自定义设置教程
edge浏览器怎样设置主页 edge浏览器自定义设置教程

在Edge浏览器中设置主页,请依次点击右上角“...”图标 > 设置 > 开始、主页和新建标签页。在“Microsoft Edge 启动时”选择“打开以下页面”,点击“添加新页面”并输入网址。若要使用主页按钮,需在“外观”设置中开启“显示主页按钮”并设定网址。

72

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.3万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号