0

0

如何使用Scrapy和XPath高效抓取div中可变数量的p标签并合并存储

聖光之護

聖光之護

发布时间:2025-12-08 17:54:55

|

492人浏览过

|

来源于php中文网

原创

如何使用Scrapy和XPath高效抓取div中可变数量的p标签并合并存储

本文详细介绍了如何利用scrapy框架和xpath表达式,从网页中准确提取特定`div`元素内数量不定的`

`标签内容,并将其合并为单个字符串进行存储。通过分析常见问题,提供了一种简洁高效的解决方案,确保所有段落内容都能被正确抓取并导出到csv文件,避免只存储最后一个段落的错误。

在进行网页抓取时,经常会遇到需要提取一个父级div元素内多个子级

标签内容的情况,且这些

标签的数量在不同页面上可能不固定。例如,某些页面可能只有一个段落,而另一些页面可能有十个甚至更多。本教程将指导您如何使用Python的Scrapy框架和XPath表达式,有效地解决这一挑战,并将所有提取的段落内容合并到一个变量中,以便于后续存储。

场景描述与HTML结构

假设我们面对的HTML结构如下所示,其中一个具有特定类名的div包含了一系列

标签,这些

标签可能包含文本、空白或换行符:

title text

text text text...

text text text...


text text text...

text text text...

text text text...

我们的目标是从这个div中提取所有

标签的文本内容,并将它们拼接成一个单一的字符串。

初始尝试与存在的问题

许多初学者可能会尝试遍历所有p标签,然后将它们赋值给一个变量:

divs = response.xpath('/html/body/div[6]/div/section[2]/article/div/div/div')
for p in divs.xpath('.//p'):
    print(p.get()) # 这会打印所有 

标签的HTML内容 story = p # 问题所在:每次循环都会覆盖 story 变量 yield { 'story': story }

尽管print(p.get())能够正确地输出所有

标签的HTML内容,但当story = p这行代码在循环内部执行时,story变量会在每次迭代中被最新的p元素覆盖。因此,当循环结束后,story将只保留最后一个

标签的内容。当通过yield将其导出到CSV文件时,CSV中也只会记录最后一个段落。

高效解决方案:XPath与列表推导式结合

为了解决上述问题,我们需要一种方法来一次性选择所有目标

标签,并将其内容合并。Scrapy结合XPath和Python的列表推导式提供了一个简洁而强大的解决方案。

核心思想是:

  1. 使用XPath选择所有目标

    标签。

    音剪
    音剪

    喜马拉雅旗下的一站式AI音频创作平台,强大的在线剪辑能力,帮你轻松创作优秀的音频作品

    下载
  2. 使用列表推导式遍历这些选中的标签,提取它们的文本内容。
  3. 使用str.join()方法将所有提取的文本内容拼接成一个字符串。

以下是具体的实现代码:

import scrapy

class MySpider(scrapy.Spider):
    name = 'paragraph_scraper'
    start_urls = ['http://example.com/your_target_page'] # 替换为实际的目标URL

    def parse(self, response):
        # 假设目标div的XPath是 '/html/body/div[6]/div/section[2]/article/div/div/div'
        # 更健壮的方法是使用类名或其他属性定位,例如 '//div[@class="div_name"]'

        # 1. 使用XPath选择所有 

标签 # 注意:这里使用了原始问题中提供的长XPath路径。 # 在实际应用中,建议使用更具鲁棒性的相对XPath或基于属性的XPath, # 例如 '//div[@class="div_name"]//p' p_elements = response.xpath('//div[6]/div/section[2]/article/div/div/div//p') # 2. 使用列表推导式提取每个

标签的文本内容并去除空白 # x.get() 获取标签的HTML内容,.strip() 去除首尾空白字符 # 如果只需要文本内容,可以使用 x.xpath('./text()').get() # 但考虑到


text

这样的结构,x.get() 配合 strip() 更通用 # 进一步优化:如果需要纯文本,且不包含HTML标签,可以这样提取: # p_texts = [x.xpath('string(.)').get().strip() for x in p_elements if x.xpath('string(.)').get().strip()] # 这里为了保持与原始答案的接近,并处理

等情况,使用 x.get() # 实际解决方案:获取每个

标签的HTML内容,去除空白 p_contents = [x.get().strip() for x in p_elements] # 3. 将所有内容用空格连接成一个字符串 story = ' '.join(p_contents) # 打印结果进行验证 self.logger.info(f"Extracted story: {story[:200]}...") # 打印前200字符 # 4. 封装为Scrapy Item并yield yield { 'story': story }

代码解析:

  • response.xpath('//div[6]/div/section[2]/article/div/div/div//p'): 这个XPath表达式直接定位到目标div内部的所有

    标签。//p表示在当前路径下的任何深度查找所有

    标签。

  • [x.get().strip() for x in p_elements]: 这是一个Python的列表推导式。
    • for x in p_elements: 遍历之前XPath选择到的每一个

      标签对象。

    • x.get(): 对于每个

      标签对象x,get()方法会返回其完整的HTML内容(包括标签本身)。如果只需要纯文本,可以尝试x.xpath('./text()').get(),但需要注意处理可能存在的子标签或混合内容。考虑到原始HTML中


      text

      的情况,get()更易于处理。
    • .strip(): 对获取到的字符串内容进行处理,去除字符串开头和结尾的空白字符(包括空格、制表符、换行符等)。这对于清理

       

      这类只包含空白内容的标签非常有用,可以将其处理为空字符串。
  • ' '.join(...): Python的join()方法用于将一个可迭代对象(这里是列表推导式生成的字符串列表)中的所有字符串元素连接起来,并使用指定的字符串(这里是单个空格' ')作为分隔符。最终,所有段落内容被合并成一个单一的字符串。

处理空标签与内容清理

在HTML中,经常会遇到

 


text

这类标签。
  • x.get().strip()会处理掉

     

    中的 在HTML解析后的空白,使其变为一个空字符串。
  • 对于


    text

    ,x.get()会得到"


    text

    ",strip()后仍为"


    text

    ". 如果需要提取纯文本,忽略HTML标签,可以考虑使用x.xpath('string(.)').get().strip()。string(.)XPath函数会提取当前节点及其所有子节点的文本内容,并将其连接成一个字符串,有效去除HTML标签。

改进的文本提取方式(纯文本):

# ...
p_elements = response.xpath('//div[6]/div/section[2]/article/div/div/div//p')

# 提取纯文本内容,并过滤掉完全为空的段落
p_texts = []
for p_tag in p_elements:
    text_content = p_tag.xpath('string(.)').get().strip()
    if text_content: # 仅添加非空字符串
        p_texts.append(text_content)

story = ' '.join(p_texts)
# ...

这种方式能够更精确地获取用户可见的纯文本内容,并避免将完全空白的段落(如 或只含br)也作为有效内容加入。

Scrapy导出到CSV的配置

为了将抓取到的数据(包括合并后的story字段)导出到CSV文件,您需要在Scrapy项目的settings.py文件中进行相应的配置:

# settings.py

# 爬虫深度限制 (0 表示无限深度)
DEPTH_LIMIT = 0

# Feed Export Settings (数据导出设置)
FEED_FORMAT = "csv" # 导出格式为CSV
FEED_URI = "output_%(name)s.csv" # 导出文件名,%(name)s 会被替换为爬虫的名称

通过以上配置,当您的爬虫运行并yield出包含story字段的字典时,Scrapy会自动将这些数据写入到指定的CSV文件中。

总结

通过本教程,您学会了如何利用Scrapy和XPath高效地从HTML中提取数量不定的

标签内容,并将其合并成一个单一的字符串。关键在于使用XPath一次性选择所有目标元素,并通过Python的列表推导式和str.join()方法进行内容提取和拼接。这种方法不仅解决了只存储最后一个段落的问题,还提高了代码的简洁性和效率,使得动态内容的抓取和存储变得更加可靠。在实际应用中,请务必根据目标网页的实际HTML结构,选择最健壮的XPath表达式。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

765

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

639

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

619

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1285

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

709

2023.08.11

PS使用蒙版相关教程
PS使用蒙版相关教程

本专题整合了ps使用蒙版相关教程,阅读专题下面的文章了解更多详细内容。

23

2026.01.19

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 5.6万人学习

Django 教程
Django 教程

共28课时 | 3.3万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号