0

0

Python网络爬虫:处理URL不变的分页数据抓取

霞舞

霞舞

发布时间:2025-11-15 12:06:38

|

521人浏览过

|

来源于php中文网

原创

Python网络爬虫:处理URL不变的分页数据抓取

本文详细介绍了如何使用python处理看似静态但实际通过post请求实现分页的网页数据抓取。当url在翻页时保持不变时,传统的url枚举方法将失效。教程将指导读者如何通过分析网络请求,识别并构造post请求体中的分页参数,结合requests和beautifulsoup库,实现高效、完整的数据爬取,并将结果整理为结构化的dataframe。

引言:理解静态URL下的动态分页挑战

在进行网络数据抓取时,我们经常会遇到网站内容通过分页展示的情况。传统的分页机制通常会在URL中体现页码参数(如 page=1, page=2),这使得通过简单地修改URL即可遍历所有页面。然而,许多现代网站为了提供更流畅的用户体验,会采用AJAX技术或通过POST请求在不刷新整个页面的情况下加载新数据。这意味着即使页面内容(例如表格数据)发生变化,浏览器地址栏中的URL也可能保持不变。

对于爬虫开发者而言,这种“静态URL下的动态分页”机制带来了挑战。例如,在抓取像 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这样的网站时,尽管页面上显示了数千条数据并提供了翻页功能,但实际的URL在翻页时并不会改变。此时,单纯依赖 requests.get() 和 pd.read_html() 只能获取到当前显示页面的数据,无法遍历所有页面。

核心策略:识别并模拟POST请求

解决此类问题的关键在于理解浏览器在用户点击“下一页”时实际执行了什么操作。通常,当URL不发生变化但内容更新时,浏览器会向服务器发送一个异步请求,这个请求往往是一个POST请求,并且在请求体(Request Body)中包含了控制分页、排序或筛选的参数。

我们的目标就是模拟这种POST请求:

立即学习Python免费学习笔记(深入)”;

  1. 识别POST请求: 使用浏览器开发者工具(如Chrome的DevTools,Network Tab),监控在翻页操作时发出的HTTP请求。
  2. 提取请求参数: 找到对应的POST请求,分析其请求URL和请求负载(Payload/Form Data),确定哪些参数是控制分页的关键(如 pageNum)。
  3. 构造请求: 在Python中使用 requests 库,构造相同的POST请求,并迭代地修改分页参数以获取不同页的数据。

Python实现步骤

以下将详细介绍如何使用Python的 requests、BeautifulSoup 和 pandas 库来抓取此类分页数据。

Ribbet.ai
Ribbet.ai

免费在线AI图片处理编辑

下载

1. 导入所需库

首先,我们需要导入本教程将使用的Python库:

  • requests:用于发送HTTP请求。
  • pandas:用于将抓取到的数据结构化为DataFrame。
  • BeautifulSoup:用于解析HTML内容并提取所需数据。
import requests
import pandas as pd
from bs4 import BeautifulSoup
import time # 建议引入,用于控制请求间隔

2. 分析POST请求参数

通过浏览器开发者工具(F12),切换到“Network”选项卡,然后尝试点击网页上的“下一页”按钮。观察新出现的请求,通常会有一个POST请求到相同的URL。点击该请求,查看其“Payload”或“Form Data”部分,你会发现一系列键值对。

针对 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这个网站,经过分析,我们发现翻页时会发送以下形式的POST数据,其中 pageNum 是控制页码的关键参数:

data = {
    "folder": "auctionResults",
    "loginID": "00",
    "pageNum": "1", # 关键参数,用于控制页码
    "orderBy": "AdvNum",
    "orderDir": "asc",
    "justFirstCertOnGroups": "1",
    "doSearch": "true",
    "itemIDList": "",
    "itemSetIDList": "",
    "interest": "",
    "premium": "",
    "itemSetDID": "",
}

url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"

3. 迭代发送POST请求并提取数据

有了请求URL和POST数据模板,我们就可以在一个循环中迭代 pageNum 参数,发送请求,并解析返回的HTML内容。

all_data = [] # 用于存储所有页面的数据

# 假设我们需要抓取前N页数据,这里以3页为例,实际应根据总页数调整
# 注意:网站可能没有直接显示总页数,可能需要通过抓取一页数据后解析出总记录数再计算,
# 或者设置一个较大的循环次数直到不再返回新数据为止。
for page_num in range(1, 3): # <-- 增加循环次数以获取更多页面
    data["pageNum"] = str(page_num) # 更新页码参数

    # 发送POST请求
    response = requests.post(url, data=data)

    # 检查请求是否成功
    if response.status_code == 200:
        soup = BeautifulSoup(response.content, "html.parser")

        # 定位数据表格,根据页面HTML结构,数据通常在特定的ID或Class的表格中
        # 示例中,数据在id为"searchResults"的表格中,且前两行是表头
        for row in soup.select("#searchResults tr")[2:]: 
            tds = [td.text.strip() for td in row.select("td")]
            all_data.append(tds)
    else:
        print(f"请求第 {page_num} 页失败,状态码: {response.status_code}")

    time.sleep(1) # 建议增加延迟,避免请求过快被服务器屏蔽

4. 构建Pandas DataFrame

抓取到所有页面的数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和处理。

# 定义列名,确保与网页表格的列顺序一致
columns = [
    "SEQ NUM",
    "Tax Year",
    "Notices",
    "Parcel ID",
    "Face Amount",
    "Winning Bid",
    "Sold To",
]

df = pd.DataFrame(all_data, columns=columns)

# 打印DataFrame的最后10条数据进行验证
print(df.tail(10).to_markdown(index=False)) # index=False 避免打印DataFrame索引

完整示例代码

import requests
import pandas as pd
from bs4 import BeautifulSoup
import time

# 目标URL,即使翻页也不会改变
url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"

# POST请求的表单数据模板
# 这些参数通过浏览器开发者工具分析得到
data = {
    "folder": "auctionResults",
    "loginID": "00",
    "pageNum": "1", # 关键参数,会在循环中更新
    "orderBy": "AdvNum",
    "orderDir": "asc",
    "justFirstCertOnGroups": "1",
    "doSearch": "true",
    "itemIDList": "",
    "itemSetIDList": "",
    "interest": "",
    "premium": "",
    "itemSetDID": "",
}

all_data = [] # 用于存储从所有页面抓取到的数据

# 假设网站有N页数据,这里以抓取前2页为例。
# 实际应用中,你需要根据网站的实际总页数或通过其他方式判断何时停止。
# 例如,可以尝试抓取一页,解析出总记录数或总页码,再进行循环。
# 或者,可以循环到一个较大的页码,如果返回的数据为空或与上一页重复,则停止。
for page_num in range(1, 3):  # 示例:抓取第1页和第2页
    data["pageNum"] = str(page_num) # 更新当前请求的页码

    try:
        # 发送POST请求,附带更新后的表单数据
        response = requests.post(url, data=data)
        response.raise_for_status()  # 检查HTTP请求是否成功,如果失败则抛出异常

        # 使用BeautifulSoup解析HTML内容
        soup = BeautifulSoup(response.content, "html.parser")

        # 查找包含数据的表格行。根据HTML结构,#searchResults是表格的ID,
        # tr是行,[2:]表示跳过前两行(通常是表头)
        for row in soup.select("#searchResults tr")[2:]:
            tds = [td.text.strip() for td in row.select("td")]
            all_data.append(tds)

        print(f"成功抓取第 {page_num} 页数据。")

    except requests.exceptions.RequestException as e:
        print(f"请求第 {page_num} 页时发生错误: {e}")
    except Exception as e:
        print(f"解析第 {page_num} 页数据时发生错误: {e}")

    time.sleep(1) # 每次请求后暂停1秒,避免对服务器造成过大压力

# 定义DataFrame的列名,与网页表格的列对应
columns = [
    "SEQ NUM",
    "Tax Year",
    "Notices",
    "Parcel ID",
    "Face Amount",
    "Winning Bid",
    "Sold To",
]

# 将抓取到的所有数据转换为Pandas DataFrame
df = pd.DataFrame(all_data, columns=columns)

# 打印DataFrame的最后10行数据进行验证
print("\n--- 抓取到的数据(最后10行)---")
print(df.tail(10).to_markdown(index=False))

注意事项与最佳实践

  1. 动态参数识别: 最关键的一步是正确识别POST请求中的所有必要参数,特别是那些会随用户操作(如翻页、筛选、排序)而变化的参数。这通常需要通过浏览器开发者工具仔细观察。
  2. 反爬机制: 许多网站会实施反爬机制来限制自动化访问。
    • User-Agent: 在 requests.post() 中添加 headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36'} 等模拟浏览器头信息,可以降低被识别为爬虫的风险。
    • 请求间隔: 使用 time.sleep() 在每次请求之间增加延迟(如1-5秒),模拟人类浏览行为,避免因请求频率过高而被服务器屏蔽IP。
    • Cookie/Session: 有些网站可能需要携带会话Cookie才能访问。在 requests 中,可以使用 requests.Session() 对象来自动管理Cookie。
  3. 错误处理: 编写健壮的爬虫代码至关重要。使用 try-except 块来捕获可能发生的网络错误(如连接超时、DNS解析失败)或解析错误,确保爬虫不会因单个页面的问题而中断。
  4. JavaScript渲染: 如果页面数据是通过复杂的JavaScript在客户端动态渲染的,仅使用 requests 和 BeautifulSoup 可能无法获取到所有数据。在这种情况下,可能需要考虑使用 Selenium 或 Playwright 等无头浏览器自动化工具,它们可以模拟完整的浏览器环境来执行JavaScript。
  5. 法律与道德: 在进行任何网络爬取活动之前,请务必查看网站的 robots.txt 文件和用户服务条款,了解其数据使用政策。遵守相关法律法规,尊重网站的数据所有权和服务器资源,进行负责任的爬取。

总结

即使面对URL不变的分页场景,通过深入理解HTTP协议和网站的交互机制,我们依然可以有效地抓取所需数据。关键在于利用浏览器开发者工具分析出实际的POST请求及其参数,然后使用 requests 库模拟这些请求,结合 BeautifulSoup 进行HTML解析,最后用 pandas 整理数据。掌握这一技巧,将大大扩展Python网络爬虫的应用范围。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
ajax教程
ajax教程

php中文网为大家带来ajax教程合集,Ajax是一种用于创建快速动态网页的技术。通过在后台与服务器进行少量数据交换,Ajax可以使网页实现异步更新。这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新。php中文网还为大家带来ajax的相关下载资源、相关课程以及相关文章等内容,供大家免费下载使用。

166

2023.06.14

ajax中文乱码解决方法
ajax中文乱码解决方法

ajax中文乱码解决方法有设置请求头部的字符编码、在服务器端设置响应头部的字符编码和使用encodeURIComponent对中文进行编码。本专题为大家提供ajax中文乱码相关的文章、下载、课程内容,供大家免费下载体验。

170

2023.08.31

ajax传递中文乱码怎么办
ajax传递中文乱码怎么办

ajax传递中文乱码的解决办法:1、设置统一的编码方式;2、服务器端编码;3、客户端解码;4、设置HTTP响应头;5、使用JSON格式。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

124

2023.11.15

ajax网站有哪些
ajax网站有哪些

使用ajax的网站有谷歌、维基百科、脸书、纽约时报、亚马逊、stackoverflow、twitter、hacker news、shopify和basecamp等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

253

2024.09.24

chrome什么意思
chrome什么意思

chrome是浏览器的意思,由Google开发的网络浏览器,它在2008年首次发布,并迅速成为全球最受欢迎的浏览器之一。本专题为大家提供chrome相关的文章、下载、课程内容,供大家免费下载体验。

1041

2023.08.11

chrome无法加载插件怎么办
chrome无法加载插件怎么办

chrome无法加载插件可以通过检查插件是否已正确安装、禁用和启用插件、清除插件缓存、更新浏览器和插件、检查网络连接和尝试在隐身模式下加载插件方法解决。更多关于chrome相关问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

827

2023.11.06

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

78

2025.12.04

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

23

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 5.8万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 3.3万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.5万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号