0

0

使用 Scrapy 框架进行多线程网页链接抓取

霞舞

霞舞

发布时间:2025-09-11 18:05:01

|

856人浏览过

|

来源于php中文网

原创

使用 scrapy 框架进行多线程网页链接抓取

本文将介绍如何使用 Scrapy 框架,以更简洁高效的方式从单个 URL 中提取所有链接,包括嵌套链接。Scrapy 提供了强大的多线程支持和易于使用的 API,能够简化网络爬虫的开发过程。我们将通过一个完整的示例代码,演示如何利用 Scrapy 抓取指定网站的所有链接,并将其保存到 CSV 文件中。

Scrapy 框架简介

Scrapy 是一个强大的 Python 爬虫框架,它内置了多线程支持,并提供了许多方便的功能,例如:

  • 请求调度和处理: Scrapy 能够有效地管理请求队列,并自动处理重试、重定向等常见问题。
  • 数据提取: Scrapy 提供了强大的选择器(Selector)机制,可以方便地从 HTML 或 XML 文档中提取数据。
  • 数据存储: Scrapy 支持多种数据存储格式,例如 CSV、JSON、XML 等。

使用 Scrapy 抓取网页链接

以下是一个使用 Scrapy 抓取网页链接的示例代码:

import scrapy

class MySpider(scrapy.Spider):

    name = 'myspider'

    allowed_domains = ['www.tradeindia.com']

    start_urls = ['https://www.tradeindia.com/']

    def parse(self, response):
        print('\n>>> url:', response.url, '\n')

        links = response.css('a::attr(href)').extract()

        # create items which it will save in file `CSV`
        for url in links:
            yield {'url': url}

        # create requests with URL so it will process next pages
        for url in links:
            yield response.follow(url)

# --- run without project and save in `output.csv` ---

from scrapy.crawler import CrawlerProcess

c = CrawlerProcess({
    'USER_AGENT': 'Mozilla/5.0',
    'CONCURRENT_REQUESTS': 10,  # default: 16
    #'RANDOMIZE_DOWNLOAD_DELAY': True,  # default: True
    'DOWNLOAD_DELAY': 2,  # delays between requests to simulate real human - from `0.5*delay` to `1.5*delay`
    #'LOG_LEVEL': 'INFO',       # less information on screen
    'FEEDS': {'output.csv': {'format': 'csv'}}, # save in file CSV, JSON or XML
})

c.crawl(MySpider)
c.start()

代码解释:

  1. MySpider 类: 定义了一个名为 MySpider 的爬虫类,继承自 scrapy.Spider。

    • name:爬虫的名称,用于在 Scrapy 中标识爬虫。
    • allowed_domains:允许爬取的域名,防止爬虫爬取到其他网站。
    • start_urls:爬虫启动时要爬取的 URL 列表。
    • parse 方法:是 Scrapy 默认的回调函数,用于处理每个爬取到的页面。
  2. parse 方法:

    • response.css('a::attr(href)').extract():使用 CSS 选择器提取页面中所有 标签的 href 属性值,返回一个链接列表。
    • yield {'url': url}:将提取到的 URL 封装成一个字典,并使用 yield 关键字将其发送到 Scrapy 的数据管道(Pipeline)进行处理。 这里创建item, 之后会保存到CSV文件中
    • yield response.follow(url):创建一个新的请求,用于爬取提取到的 URL。 response.follow 会自动处理相对 URL 和绝对 URL。
  3. CrawlerProcess 类:

    Cursor
    Cursor

    一个新的IDE,使用AI来帮助您重构、理解、调试和编写代码。

    下载
    • USER_AGENT:设置 User-Agent,模拟浏览器访问,防止被网站屏蔽。
    • CONCURRENT_REQUESTS:设置并发请求数,控制爬虫的速度。
    • DOWNLOAD_DELAY:设置下载延迟,模拟真实用户行为,防止对服务器造成过大压力。
    • FEEDS:配置数据输出格式和文件名。

运行代码:

将以上代码保存为 spider.py 文件,然后在命令行中运行以下命令:

python spider.py

运行后,Scrapy 将会从 https://www.tradeindia.com/ 开始爬取,提取所有链接,并将结果保存到名为 output.csv 的文件中。

注意事项

  • 遵守 Robots.txt 协议: 在编写爬虫时,请务必遵守网站的 Robots.txt 协议,避免爬取不允许爬取的页面。
  • 设置合理的下载延迟: 为了避免对目标网站造成过大的压力,建议设置合理的下载延迟,模拟真实用户的访问行为。
  • 处理异常情况: 在爬取过程中,可能会遇到各种异常情况,例如网络错误、页面不存在等。建议在代码中添加适当的异常处理机制,保证爬虫的稳定性。
  • 动态内容抓取: 如果需要抓取 JavaScript 动态生成的内容,可以考虑使用 Scrapy 与 Selenium 或 Puppeteer 等工具结合使用。

总结

Scrapy 是一个功能强大的 Python 爬虫框架,可以帮助你快速高效地抓取网页数据。通过学习本文,你应该能够使用 Scrapy 抓取指定网站的所有链接,并将其保存到文件中。希望本文能够帮助你更好地理解和使用 Scrapy 框架。

此外,Scrapy 还提供了 LinkExtractor 和 CrawlSpider 等更高级的功能,可以进一步简化爬虫的开发。建议你查阅 Scrapy 的官方文档,了解更多关于这些功能的用法。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

420

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

536

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

312

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

77

2025.09.10

免费爬虫工具有哪些
免费爬虫工具有哪些

免费爬虫工具有Scrapy、Beautiful Soup、ParseHub、Octoparse、Webocton Scriptly、RoboBrowser和Goutte。更多关于免费爬虫工具的问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

773

2023.11.10

pdf怎么转换成xml格式
pdf怎么转换成xml格式

将 pdf 转换为 xml 的方法:1. 使用在线转换器;2. 使用桌面软件(如 adobe acrobat、itext);3. 使用命令行工具(如 pdftoxml)。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1903

2024.04.01

xml怎么变成word
xml怎么变成word

步骤:1. 导入 xml 文件;2. 选择 xml 结构;3. 映射 xml 元素到 word 元素;4. 生成 word 文档。提示:确保 xml 文件结构良好,并预览 word 文档以验证转换是否成功。想了解更多xml的相关内容,可以阅读本专题下面的文章。

2092

2024.08.01

xml是什么格式的文件
xml是什么格式的文件

xml是一种纯文本格式的文件。xml指的是可扩展标记语言,标准通用标记语言的子集,是一种用于标记电子文件使其具有结构性的标记语言。想了解更多相关的内容,可阅读本专题下面的相关文章。

1081

2024.11.28

C++ 设计模式与软件架构
C++ 设计模式与软件架构

本专题深入讲解 C++ 中的常见设计模式与架构优化,包括单例模式、工厂模式、观察者模式、策略模式、命令模式等,结合实际案例展示如何在 C++ 项目中应用这些模式提升代码可维护性与扩展性。通过案例分析,帮助开发者掌握 如何运用设计模式构建高质量的软件架构,提升系统的灵活性与可扩展性。

14

2026.01.30

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.8万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.1万人学习

CSS教程
CSS教程

共754课时 | 25.4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号