0

0

Scrapy爬虫返回空数组的解决方案

心靈之曲

心靈之曲

发布时间:2025-07-12 16:26:01

|

826人浏览过

|

来源于php中文网

原创

scrapy爬虫返回空数组的解决方案

本文旨在解决Scrapy爬虫抓取网页数据时,XPath表达式返回空数组的问题。通过分析tbody标签的特性,提出绕过该标签直接定位所需数据行的解决方案,并提供示例代码和注意事项,帮助开发者有效应对类似情况。

在使用Scrapy进行网页数据抓取时,有时会遇到XPath表达式返回空数组的情况,导致无法获取目标数据。这通常是由于网页结构与预期不符造成的。一个常见的原因是,某些HTML元素(如tbody)是由浏览器动态添加的,在原始HTML源码中并不存在。

问题分析:tbody标签的特性

tbody标签用于在HTML表格中组合表格主体内容。然而,许多网页在编写时并未显式包含tbody标签,浏览器在渲染页面时会自动添加该标签。因此,当使用Scrapy抓取此类网页时,直接使用包含tbody的XPath表达式可能会导致无法找到对应的元素,从而返回空数组。

例如,假设要抓取CVE数据库中HP相关的漏洞信息,目标网页的表格结构如下:

Header 1 Header 2
Data 1 Data 2

如果直接使用//div[@id='TableWithRules']//tbody/tr这样的XPath表达式,很可能无法找到tbody标签,导致返回空数组。

解决方案:绕过tbody标签

为了解决这个问题,可以绕过tbody标签,直接定位到表格行tr元素。

以下是两种可行的解决方案:

  1. 直接定位所有行: 使用//div[@id='TableWithRules']//tr直接选取TableWithRules下的所有tr元素。

    import scrapy
    
    class HPSpider(scrapy.Spider):
        name = "hp_spider"
        start_urls = ['https://cve.mitre.org/cgi-bin/cvekey.cgi?keyword=hp']
    
        def parse(self, response):
            rows = response.xpath("//div[@id='TableWithRules']//tr")
            print(f"Total rows found: {len(rows)}")
            for row in rows:
                # 处理每一行的数据
                pass

    这种方法会选取包括表头在内的所有行,需要根据实际情况进行过滤。

  2. 排除表头行: 如果需要排除表头行,可以使用//div[@id='TableWithRules']//tr[td]选取包含td子元素的tr元素。

    import scrapy
    
    class HPSpider(scrapy.Spider):
        name = "hp_spider"
        start_urls = ['https://cve.mitre.org/cgi-bin/cvekey.cgi?keyword=hp']
    
        def parse(self, response):
            rows = response.xpath("//div[@id='TableWithRules']//tr[td]")
            print(f"Data rows found: {len(rows)}")
            for row in rows:
                # 处理每一行的数据
                pass

    这种方法通过判断tr元素是否包含td子元素来排除表头行。

使用Scrapy Shell进行调试

在编写Scrapy爬虫时,可以使用Scrapy Shell进行调试,验证XPath表达式的正确性。

  1. 启动Scrapy Shell:

    scrapy shell https://cve.mitre.org/cgi-bin/cvekey.cgi?keyword=hp
  2. 在Shell中测试XPath表达式:

    >>> rows = response.xpath("//div[@id='TableWithRules']//tr")
    >>> len(rows)
    # 输出行数
    >>> rows = response.xpath("//div[@id='TableWithRules']//tr[td]")
    >>> len(rows)
    # 输出数据行数

注意事项

  • 在编写XPath表达式时,要仔细分析网页结构,注意动态添加的HTML元素。
  • 使用Scrapy Shell进行调试,验证XPath表达式的正确性。
  • 根据实际需求,选择合适的XPath表达式,过滤不需要的数据行。
  • 某些网站可能会采取反爬虫措施,需要根据情况调整爬虫策略。

总结

当Scrapy爬虫返回空数组时,需要仔细分析网页结构,检查XPath表达式是否正确。对于tbody等可能由浏览器动态添加的HTML元素,可以尝试绕过这些元素,直接定位到目标数据。通过合理的XPath表达式和调试,可以有效地解决Scrapy爬虫返回空数组的问题。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
免费爬虫工具有哪些
免费爬虫工具有哪些

免费爬虫工具有Scrapy、Beautiful Soup、ParseHub、Octoparse、Webocton Scriptly、RoboBrowser和Goutte。更多关于免费爬虫工具的问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

771

2023.11.10

免费爬虫工具有哪些
免费爬虫工具有哪些

免费爬虫工具有Scrapy、Beautiful Soup、ParseHub、Octoparse、Webocton Scriptly、RoboBrowser和Goutte。更多关于免费爬虫工具的问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

771

2023.11.10

免费爬虫工具有哪些
免费爬虫工具有哪些

免费爬虫工具有Scrapy、Beautiful Soup、ParseHub、Octoparse、Webocton Scriptly、RoboBrowser和Goutte。更多关于免费爬虫工具的问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

771

2023.11.10

数据库三范式
数据库三范式

数据库三范式是一种设计规范,用于规范化关系型数据库中的数据结构,它通过消除冗余数据、提高数据库性能和数据一致性,提供了一种有效的数据库设计方法。本专题提供数据库三范式相关的文章、下载和课程。

356

2023.06.29

如何删除数据库
如何删除数据库

删除数据库是指在MySQL中完全移除一个数据库及其所包含的所有数据和结构,作用包括:1、释放存储空间;2、确保数据的安全性;3、提高数据库的整体性能,加速查询和操作的执行速度。尽管删除数据库具有一些好处,但在执行任何删除操作之前,务必谨慎操作,并备份重要的数据。删除数据库将永久性地删除所有相关数据和结构,无法回滚。

2078

2023.08.14

vb怎么连接数据库
vb怎么连接数据库

在VB中,连接数据库通常使用ADO(ActiveX 数据对象)或 DAO(Data Access Objects)这两个技术来实现:1、引入ADO库;2、创建ADO连接对象;3、配置连接字符串;4、打开连接;5、执行SQL语句;6、处理查询结果;7、关闭连接即可。

348

2023.08.31

MySQL恢复数据库
MySQL恢复数据库

MySQL恢复数据库的方法有使用物理备份恢复、使用逻辑备份恢复、使用二进制日志恢复和使用数据库复制进行恢复等。本专题为大家提供MySQL数据库相关的文章、下载、课程内容,供大家免费下载体验。

256

2023.09.05

vb中怎么连接access数据库
vb中怎么连接access数据库

vb中连接access数据库的步骤包括引用必要的命名空间、创建连接字符串、创建连接对象、打开连接、执行SQL语句和关闭连接。本专题为大家提供连接access数据库相关的文章、下载、课程内容,供大家免费下载体验。

325

2023.10.09

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
如何进行WebSocket调试
如何进行WebSocket调试

共1课时 | 0.1万人学习

TypeScript全面解读课程
TypeScript全面解读课程

共26课时 | 5万人学习

前端工程化(ES6模块化和webpack打包)
前端工程化(ES6模块化和webpack打包)

共24课时 | 5.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号