0

0

使用 Scrapy 进行多线程网页链接提取教程

DDD

DDD

发布时间:2025-09-11 18:50:02

|

782人浏览过

|

来源于php中文网

原创

使用 scrapy 进行多线程网页链接提取教程

本文档旨在指导开发者如何使用 Scrapy 框架高效地从单个 URL 中提取所有链接,包括嵌套链接。通过 Scrapy 提供的强大功能和简洁的 API,我们可以轻松实现多线程爬取,并将提取的链接保存到 CSV 文件中。本文将提供一个可直接运行的 Scrapy 脚本,无需创建完整的 Scrapy 项目,即可快速上手。

简介

网络爬虫经常需要从一个网页中提取所有的链接,并进一步访问这些链接以获取更多信息。对于大型网站,单线程爬取效率低下。Scrapy 是一个强大的 Python 爬虫框架,它内置了多线程支持,可以高效地完成链接提取任务。本教程将展示如何使用 Scrapy 提取指定 URL 及其嵌套 URL 中的所有链接,并将结果保存到 CSV 文件中。

准备工作

  1. 安装 Scrapy:

    pip install scrapy
  2. 安装 Twisted:

    Scrapy 依赖于 Twisted 异步网络框架。某些情况下,直接 pip install scrapy 可能无法正确安装 Twisted。如果遇到问题,可以尝试手动安装 Twisted:

    pip install twisted

编写 Scrapy 爬虫

以下是一个简单的 Scrapy 爬虫脚本,用于提取链接并保存到 CSV 文件。

import scrapy

class MySpider(scrapy.Spider):
    name = 'myspider'
    allowed_domains = ['www.tradeindia.com']  # 替换为你的目标域名
    start_urls = ['https://www.tradeindia.com/']  # 替换为你的起始 URL

    def parse(self, response):
        print('\n>>> url:', response.url, '\n')

        links = response.css('a::attr(href)').extract()

        # 创建 items,用于保存到 CSV 文件
        for url in links:
            yield {'url': url}

        # 创建请求,用于处理下一层 URL
        for url in links:
            yield response.follow(url)

# --- 无需创建项目即可运行并保存到 `output.csv` ---
from scrapy.crawler import CrawlerProcess

c = CrawlerProcess({
    'USER_AGENT': 'Mozilla/5.0',
    'CONCURRENT_REQUESTS': 10,  # 默认: 16,调整并发请求数
    #'RANDOMIZE_DOWNLOAD_DELAY': True,  # 默认: True
    'DOWNLOAD_DELAY': 2,  # 请求之间的延迟,模拟真实用户行为,避免被封禁
    #'LOG_LEVEL': 'INFO',       # 减少屏幕输出信息
    'FEEDS': {'output.csv': {'format': 'csv'}}, # 保存为 CSV, JSON 或 XML 格式
})

c.crawl(MySpider)
c.start()

代码解释:

Otter.ai
Otter.ai

一个自动的会议记录和笔记工具,会议内容生成和实时转录

下载
  • MySpider 类: 继承自 scrapy.Spider,定义了爬虫的行为。

    • name: 爬虫的名称,必须是唯一的。
    • allowed_domains: 允许爬取的域名,防止爬虫爬到其他网站。
    • start_urls: 爬虫启动时要爬取的 URL 列表。
    • parse(self, response): 处理响应的回调函数。
      • response.url: 当前页面的 URL。
      • response.css('a::attr(href)').extract(): 使用 CSS 选择器提取所有 <a> 标签的 href 属性值。
      • yield {'url': url}: 生成一个包含 URL 的字典,Scrapy 会自动将其保存到 CSV 文件中。
      • yield response.follow(url): 创建一个新的请求,用于爬取提取到的 URL。response.follow 会自动处理相对 URL。
  • CrawlerProcess 类: 用于运行爬虫。

    • USER_AGENT: 设置 User-Agent,模拟浏览器行为,避免被识别为爬虫。
    • CONCURRENT_REQUESTS: 设置并发请求数,控制爬取速度。
    • DOWNLOAD_DELAY: 设置下载延迟,模拟真实用户行为,避免给服务器造成过大压力。
    • FEEDS: 设置输出文件和格式。

运行爬虫

将上述代码保存为 spider.py 文件,然后在命令行中运行:

python spider.py

爬虫将开始运行,并将提取到的链接保存到 output.csv 文件中。

注意事项

  • Robots.txt: 请务必遵守网站的 robots.txt 协议,避免爬取禁止爬取的页面。
  • 爬取频率: 控制爬取频率,避免给服务器造成过大压力。可以使用 DOWNLOAD_DELAY 参数设置下载延迟。
  • User-Agent: 设置合适的 User-Agent,模拟浏览器行为。
  • 反爬机制: 一些网站可能会采取反爬机制,例如验证码、IP 封禁等。需要根据具体情况采取相应的应对措施。
  • 域名限制: allowed_domains 应该设置为目标网站的域名,防止爬虫爬到其他网站。
  • 递归深度: 如果网站结构非常复杂,需要控制递归深度,避免无限循环。可以使用 Scrapy 的 DEPTH_LIMIT 设置。

总结

本教程介绍了如何使用 Scrapy 框架进行多线程网页链接提取。通过 Scrapy 提供的强大功能和简洁的 API,我们可以高效地完成爬虫任务。 请务必遵守相关法律法规和网站的 robots.txt 协议,合法合规地进行网络爬取。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
免费爬虫工具有哪些
免费爬虫工具有哪些

免费爬虫工具有Scrapy、Beautiful Soup、ParseHub、Octoparse、Webocton Scriptly、RoboBrowser和Goutte。更多关于免费爬虫工具的问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

790

2023.11.10

pip安装使用方法
pip安装使用方法

安装步骤:1、确保Python已经正确安装在您的计算机上;2、下载“get-pip.py”脚本;3、按下Win + R键,然后输入cmd并按下Enter键来打开命令行窗口;4、在命令行窗口中,使用cd命令切换到“get-pip.py”所在的目录;5、执行安装命令;6、验证安装结果即可。大家可以访问本专题下的文章,了解pip安装使用方法的更多内容。

373

2023.10.09

更新pip版本
更新pip版本

更新pip版本方法有使用pip自身更新、使用操作系统自带的包管理工具、使用python包管理工具、手动安装最新版本。想了解更多相关的内容,请阅读专题下面的文章。

437

2024.12.20

pip设置清华源
pip设置清华源

设置方法:1、打开终端或命令提示符窗口;2、运行“touch ~/.pip/pip.conf”命令创建一个名为pip的配置文件;3、打开pip.conf文件,然后添加“[global];index-url = https://pypi.tuna.tsinghua.edu.cn/simple”内容,这将把pip的镜像源设置为清华大学的镜像源;4、保存并关闭文件即可。

803

2024.12.23

python升级pip
python升级pip

本专题整合了python升级pip相关教程,阅读下面的文章了解更多详细内容。

371

2025.07.23

线程和进程的区别
线程和进程的区别

线程和进程的区别:线程是进程的一部分,用于实现并发和并行操作,而线程共享进程的资源,通信更方便快捷,切换开销较小。本专题为大家提供线程和进程区别相关的各种文章、以及下载和课程。

766

2023.08.10

Python 多线程与异步编程实战
Python 多线程与异步编程实战

本专题系统讲解 Python 多线程与异步编程的核心概念与实战技巧,包括 threading 模块基础、线程同步机制、GIL 原理、asyncio 异步任务管理、协程与事件循环、任务调度与异常处理。通过实战示例,帮助学习者掌握 如何构建高性能、多任务并发的 Python 应用。

377

2025.12.24

java多线程相关教程合集
java多线程相关教程合集

本专题整合了java多线程相关教程,阅读专题下面的文章了解更多详细内容。

32

2026.01.21

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.9万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

CSS教程
CSS教程

共754课时 | 43万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号