0

0

Python | Python学习之初识Scrapy

蓮花仙者

蓮花仙者

发布时间:2025-10-03 09:45:01

|

377人浏览过

|

来源于php中文网

原创

初识scrapy:什么是scrapy?

Scrapy 是一个用 Python 编写的开源爬虫框架,基于高性能的事件驱动网络引擎 Twisted,Scrapy 爬虫具有极高的性能。

Scrapy 内置数据提取器(Selector),支持 XPath 和 Scrapy 自有的 CSS Selector 语法,并且支持正则表达式,便于从网页中提取信息。交互式的命令行工具便于测试 Selector 和调试爬虫,支持将数据导出为 JSON、CSV、XML 格式。Scrapy 的可扩展性强,运行自己编写的特定功能插件,内置了许多扩展和中间件,用于处理 cookies 和 session、HTTP 压缩、认证、缓存、robots.txt 以及爬虫深度限制。Scrapy 内部数据流程图如下:

Python | Python学习之初识Scrapy

Scrapy 内部数据流程图其中:

立即学习Python免费学习笔记(深入)”;

Scrapy Engine(引擎):负责 Spider、ItemPipeline、Downloader、Scheduler 之间的通信、信号、数据传递等。 Scheduler(调度器):接受引擎发送的 Request 请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。 Downloader(下载器):负责下载 Scrapy Engine(引擎)发送的所有 Requests 请求,并将其获取到的 Responses 交还给 Scrapy Engine(引擎),由引擎交给 Spider 处理。 Spider(爬虫):负责处理所有 Responses,从中分析提取数据,获取 Item 字段所需的数据,并将需要跟进的 URL 提交给引擎,再次进入 Scheduler(调度器)。 Item Pipeline(管道):负责处理 Spider 中获取到的 Item,并进行后期处理(详细分析、过滤、存储等)。 Downloader Middlewares(下载中间件):可以自定义扩展下载功能的组件。 Spider Middlewares(Spider 中间件):可以自定义扩展和操作引擎和 Spider 之间通信的功能组件(例如进入 Spider 的 Responses 和从 Spider 出去的 Requests)。

制作 Scrapy 爬虫的步骤:

新建项目(scrapy startproject xxx):新建一个新的爬虫项目。 明确目标(编写 items.py):明确你想要抓取的目标。 制作爬虫(spiders/xxspider.py):制作爬虫开始爬取网页。 存储内容(pipelines.py):设计管道存储爬取内容。

如何安装 Scrapy?

在 Windows 系统下安装 Scrapy:

在 Windows 64 位系统下,安装 Scrapy 需要先安装以下依赖库:

pip install wheel
lxml-4.2.1-cp36-cp36m-win_amd64.whl
pyOpenSSL-17.5.0-py2.py3-none-any.whl
pywin32-221.win-amd64-py3.6.exe
Twisted-17.9.0-cp36-cp36m-win_amd64.whl
pip install scrapy

在 Linux 下安装 Scrapy:

系统版本为 Ubuntu 16.04:

Python之模块学习 中文WORD版
Python之模块学习 中文WORD版

本文档主要讲述的是Python之模块学习;python是由一系列的模块组成的,每个模块就是一个py为后缀的文件,同时模块也是一个命名空间,从而避免了变量名称冲突的问题。模块我们就可以理解为lib库,如果需要使用某个模块中的函数或对象,则要导入这个模块才可以使用,除了系统默认的模块(内置函数)不需要导入外。希望本文档会给有需要的朋友带来帮助;感兴趣的朋友可以过来看看

下载
sudo apt-get install build-essential python3-dev libssl-dev libffi-dev libxml2 libxml2-dev libxslt1-dev zlib1g-dev
pip install scrapy

Scrapy 文件结构:

安装好 Scrapy 后,我们在 Windows 命令行模式下输入以下命令创建 Scrapy 项目:

scrapy startproject 项目名称

可以看到创建了以下文件:

Python | Python学习之初识Scrapy

Scrapy 文件结构其中:

scrapy.cfg:项目的配置文件
xxSpider/:项目的 Python 模块,将会从这里引用代码
xxSpider/items.py:项目的目标文件
xxSpider/pipelines.py:项目的管道文件
xxSpider/settings.py:项目的设置文件
xxSpider/spiders/:存储爬虫代码目录

Scrapy 单文件 Demo:

创建完 Scrapy 项目后,还是要上手实验一下才能更好地理解,所以根据之前我在实验楼课程中的学习笔记写了一个 Scrapy 单文件 Demo,使用这个单文件 Demo 能快速爬取实验楼全部课程信息。首先看下单文件的内容结构:

    url_tmpl = 'https://www.shiyanlou.com/courses/?category=all&course_type=all&fee=all&tag=all&page={}'
    # 所有要爬取的页面
    urls = (url_tmpl.format(i) for i in range(1, 23))
    # 返回一个生成器,生成 Request 对象,生成器是可迭代对象
    for url in urls:
        yield scrapy.Request(url=url, callback=self.parse)

def parse(self, response):
    # 遍历每个课程的 div.course-body
    for course in response.css('div.course-body'):
        # 使用 css 语法对每个 course 提取数据
        yield {
            # 课程名称
            'name': course.css('div.course-name::text').extract_first(),
            # 课程描述
            'description': course.css('div.course-desc::text').extract_first(),
            # 课程类型,实验楼的课程有免费,会员,训练营三种,免费课程并没有字样显示,也就是说没有 span.pull-right 这个标签,没有这个标签就代表时免费课程,使用默认值 `免费`就可以了。
            'type': course.css('div.course-footer span.pull-right::text').extract_first(default='Free'),
            # 注意 // 前面的 .,没有点表示整个文档所有的 div.course-body,有 . 才表示当前迭代的这个 div.course-body
            'students': course.xpath('.//span[contains(@class, "pull-left")]/text()[2]').re_first('[^\d]*(\d*)[^\d]*')
        }</code>

保存文件,使用 scrapy runspider xx.py -o data.json 运行代码,这里使用 -o 参数将结果输出为 JSON 格式。

写在后面:

这是咸鱼的第四篇学习笔记,旨在熟悉 Scrapy 单文件结构,为之后深入学习 Scrapy 打好基础。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
什么是中间件
什么是中间件

中间件是一种软件组件,充当不兼容组件之间的桥梁,提供额外服务,例如集成异构系统、提供常用服务、提高应用程序性能,以及简化应用程序开发。想了解更多中间件的相关内容,可以阅读本专题下面的文章。

182

2024.05.11

Golang 中间件开发与微服务架构
Golang 中间件开发与微服务架构

本专题系统讲解 Golang 在微服务架构中的中间件开发,包括日志处理、限流与熔断、认证与授权、服务监控、API 网关设计等常见中间件功能的实现。通过实战项目,帮助开发者理解如何使用 Go 编写高效、可扩展的中间件组件,并在微服务环境中进行灵活部署与管理。

226

2025.12.18

json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

455

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

546

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

334

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

82

2025.09.10

js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

530

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

258

2023.07.05

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

3

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号