0

0

Python如何爬取网页数据_Python网络爬虫步骤详解

冰火之心

冰火之心

发布时间:2025-08-27 12:50:02

|

1085人浏览过

|

来源于php中文网

原创

答案:Python爬取网页数据需经历发送请求、解析内容和存储数据三步。首先用requests库获取网页HTML,结合headers和timeout参数模拟浏览器行为;接着使用BeautifulSoup或lxml解析HTML,通过标签、CSS选择器或XPath提取目标信息;若内容由JavaScript动态生成,则优先分析XHR/AJAX接口直接获取JSON数据,或使用Selenium等无头浏览器渲染页面后再提取;最后将数据保存为CSV、JSON或数据库格式。应对反爬需设置User-Agent、使用代理IP池、控制请求频率,并通过Session维持登录状态。轻量任务推荐requests+BeautifulSoup,高性能需求选lxml,复杂项目用Scrapy框架。

python如何爬取网页数据_python网络爬虫步骤详解

Python爬取网页数据,核心在于利用其强大的库生态,模拟浏览器行为,发送HTTP请求获取网页内容,再通过解析技术从HTML或JSON中提取所需信息。这个过程听起来有些技术化,但实际上,只要掌握了几个关键步骤和工具,你就能高效地将互联网上的“公开”数据转化为可用的信息。

解决方案

要实现Python爬取网页数据,通常会遵循一个清晰的流程,这不仅仅是技术上的堆砌,更是一种思维模式的建立。

第一步:发送HTTP请求,获取网页内容。 这是爬虫的起点。Python中,

requests
库是这个环节的明星。它让HTTP请求变得异常简单。你需要指定目标URL,选择请求方法(GET、POST等),并可能需要添加一些请求头(headers),比如
User-Agent
,来伪装成一个普通的浏览器访问。

import requests

url = 'https://www.example.com'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36'
}

try:
    response = requests.get(url, headers=headers, timeout=10)
    response.raise_for_status() # 检查HTTP请求是否成功
    html_content = response.text
    print("网页内容获取成功!")
    # print(html_content[:500]) # 打印前500字符查看
except requests.exceptions.RequestException as e:
    print(f"请求失败: {e}")
    html_content = None

这里我通常会加一个

timeout
参数,防止程序无限等待,并且用
response.raise_for_status()
来快速判断请求是否成功,这能省去不少调试时间。

第二步:解析网页内容,提取目标数据。 拿到HTML字符串后,下一步就是从中“大海捞针”。这里就需要用到解析库,最常用的是

BeautifulSoup
lxml
BeautifulSoup
以其易用性闻名,而
lxml
则以速度和对XPath的支持见长。我个人在处理不那么复杂的页面时,更倾向于
BeautifulSoup
,因为它写起来更直观。

from bs4 import BeautifulSoup

if html_content:
    soup = BeautifulSoup(html_content, 'html.parser')

    # 举例:提取网页标题
    title_tag = soup.find('title')
    if title_tag:
        page_title = title_tag.get_text()
        print(f"网页标题: {page_title}")

    # 举例:提取所有段落文本
    paragraphs = soup.find_all('p')
    for i, p in enumerate(paragraphs[:3]): # 只打印前3个段落
        print(f"段落 {i+1}: {p.get_text().strip()}")

    # 举例:使用CSS选择器提取特定元素
    # 假设我们想提取一个id为'main-content'的div下的所有链接
    main_content_div = soup.select_one('#main-content')
    if main_content_div:
        links = main_content_div.find_all('a')
        print("\n主内容区域的链接:")
        for link in links:
            print(f"- {link.get_text().strip()}: {link.get('href')}")

选择器是这里的关键,无论是

find
/
find_all
配合标签名、属性,还是
select
/
select_one
使用CSS选择器,甚至
lxml
的XPath,都是为了精准定位数据。这部分工作有点像侦探,需要仔细观察目标网页的HTML结构。

立即学习Python免费学习笔记(深入)”;

第三步:数据存储。 提取到的数据最终需要保存起来,以便后续分析或使用。常见的存储格式有CSV、JSON,也可以直接存入数据库(如SQLite、MySQL、MongoDB)。

import json
import csv

# 假设我们从网页中提取到了一系列文章信息
articles_data = [
    {'title': '文章标题1', 'url': 'http://example.com/art1', 'author': '作者A'},
    {'title': '文章标题2', 'url': 'http://example.com/art2', 'author': '作者B'}
]

# 存储为JSON文件
with open('articles.json', 'w', encoding='utf-8') as f:
    json.dump(articles_data, f, ensure_ascii=False, indent=4)
print("\n数据已保存到 articles.json")

# 存储为CSV文件
if articles_data:
    csv_file = 'articles.csv'
    fieldnames = articles_data[0].keys()
    with open(csv_file, 'w', newline='', encoding='utf-8') as f:
        writer = csv.DictWriter(f, fieldnames=fieldnames)
        writer.writeheader()
        writer.writerows(articles_data)
    print(f"数据已保存到 {csv_file}")

JSON对于结构化数据非常友好,而CSV则适合表格形式的数据。选择哪种,取决于你的数据结构和后续用途。

爬虫入门:选择合适的Python库有哪些考量?

在Python爬虫的世界里,库的选择确实是个让人纠结的问题。我经常被问到,“我应该用哪个库?”我的回答通常是:看你的需求和项目的规模。

对于简单的、一次性的抓取任务,或者你只是想快速验证一个想法,

requests
BeautifulSoup
的组合几乎是无敌的。
requests
处理HTTP请求的简洁性让人爱不释手,而
BeautifulSoup
在解析HTML时的容错性非常好,即使面对一些“脏乱差”的HTML代码也能处理得游刃有余。它的API设计也很直观,
find()
find_all()
select()
这些方法,基本上就能覆盖大多数的元素查找需求。它的缺点是速度相对较慢,尤其是在处理大型HTML文件时,可能会感觉有些吃力。

如果你的项目对性能有更高要求,或者需要频繁处理大量数据,那么

lxml
会是更好的选择。
lxml
是基于C语言实现的,速度飞快,而且它对XPath的支持非常完善。XPath是一种强大的路径语言,能够让你以非常精确的方式定位HTML或XML文档中的任何元素。我个人觉得,一旦你掌握了XPath,很多复杂的选择器问题都会迎刃而解,甚至比CSS选择器更灵活。不过,
lxml
的API可能没有
BeautifulSoup
那么“傻瓜式”,上手需要一点点时间。

而当你的爬虫项目变得复杂,需要处理大量页面、管理请求频率、处理登录、分布式抓取等一系列高级功能时,

Scrapy
框架就该登场了。
Scrapy
是一个全功能的爬虫框架,它提供了一整套的机制来帮助你构建高效、可扩展的爬虫。它包含了请求调度、中间件、管道、下载器等组件,可以让你专注于数据提取的逻辑,而不用操心底层的并发、重试等问题。但请注意,
Scrapy
的学习曲线相对陡峭,对于初学者来说可能会觉得有些庞大。我通常建议,如果你只是想抓取几个页面,不要一开始就上
Scrapy
,那就像用大炮打蚊子。先从
requests + BeautifulSoup
开始,逐步升级,这样你的技术栈会更扎实。

总结一下:

  • 轻量级、快速原型开发、对性能要求不高:
    requests
    +
    BeautifulSoup
  • 对性能有要求、熟悉XPath、处理复杂HTML/XML:
    requests
    +
    lxml
  • 大型、复杂、需要高级功能(如分布式、并发、持久化):
    Scrapy

应对反爬机制:如何让你的Python爬虫更“隐蔽”?

爬虫和反爬,就像一场永无止境的猫鼠游戏。网站为了保护数据和服务器资源,会设置各种障碍,而我们的爬虫,则需要想办法“绕过”这些障碍。我在这方面吃过不少亏,也积累了一些经验。

最常见的反爬机制是检测User-Agent。很多网站会检查你的请求头,如果发现

User-Agent
是Python的默认值(比如
python-requests/X.X.X
),就会直接拒绝你的访问。所以,伪装成主流浏览器是基本操作。

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
    'Connection': 'keep-alive',
    'Upgrade-Insecure-Requests': '1'
}

我通常会把这些常见的浏览器请求头都加上,让请求看起来更真实。更进一步,可以维护一个

User-Agent
池,每次请求随机选择一个,避免单一
User-Agent
被识别。

IP地址限制是另一个大头。当你从同一个IP地址在短时间内发起大量请求时,网站可能会把你拉黑。这时,IP代理池就显得尤为重要。你可以使用一些公开的代理IP,或者购买专业的代理服务。在

requests
中设置代理非常简单:

proxies = {
    'http': 'http://your_proxy_ip:port',
    'https': 'https://your_proxy_ip:port'
}
response = requests.get(url, headers=headers, proxies=proxies)

但要注意,免费代理的稳定性和速度往往不尽如人意,而且生命周期短。对于严肃的爬虫项目,投资高质量的付费代理是值得的。

Cardify卡片工坊
Cardify卡片工坊

使用Markdown一键生成精美的小红书知识卡片

下载

请求频率控制也是网站常用手段。短时间内的高频访问会被认为是恶意行为。应对策略很简单:设置请求间隔

time.sleep()
是你的好朋友。

import time
time.sleep(random.uniform(2, 5)) # 随机暂停2到5秒

随机化暂停时间比固定暂停时间更不容易被检测出来。

处理动态内容和JavaScript渲染是另一个挑战。如果网站内容是通过JavaScript动态加载的,

requests
直接获取的HTML可能不包含你想要的数据。这时,你需要借助无头浏览器,如
Selenium
Playwright
。它们能模拟真实浏览器执行JavaScript,加载所有内容,然后你再从中提取数据。

from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options

# 配置Chrome浏览器选项,使其在无头模式下运行
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu') # 某些Linux系统需要
chrome_options.add_argument('--no-sandbox') # 某些环境需要

# 指定ChromeDriver的路径
# service = Service('/path/to/chromedriver') # 根据你的chromedriver路径修改

# 初始化WebDriver
# driver = webdriver.Chrome(service=service, options=chrome_options)
# 或者如果你已经配置了环境变量,可以直接:
driver = webdriver.Chrome(options=chrome_options)

try:
    driver.get(url)
    time.sleep(3) # 等待JavaScript加载完成

    # 获取渲染后的页面内容
    rendered_html = driver.page_source
    soup = BeautifulSoup(rendered_html, 'html.parser')
    # 进一步解析soup对象
    print("通过Selenium获取的网页标题:", soup.title.get_text())

finally:
    driver.quit() # 关闭浏览器

虽然

Selenium
能解决问题,但它资源消耗大、速度慢,不到万不得已,我更倾向于去分析网站的XHR/AJAX请求,直接从API接口获取数据,那才是最高效的方式。

处理登录和Session/Cookie:对于需要登录才能访问的页面,你需要模拟登录过程,并维护会话(Session)。

requests.Session()
对象可以帮助你自动处理
cookies

session = requests.Session()
login_url = 'https://www.example.com/login'
login_data = {'username': 'your_user', 'password': 'your_password'}
session.post(login_url, data=login_data, headers=headers)

# 登录后,session会自动携带cookies访问其他页面
response = session.get('https://www.example.com/protected_page', headers=headers)
print("登录后访问的页面内容:", response.text[:500])

这能让你的爬虫行为更像一个真实的已登录用户。

反爬机制千变万化,没有一劳永逸的解决方案。关键在于理解网站的反爬逻辑,然后对症下药。有时候,简单的

User-Agent
轮换就能解决问题,有时候则需要动用
Selenium
甚至更复杂的策略。保持耐心和好奇心,是做好爬虫的必备素质。

爬取JavaScript动态加载内容:Python有哪些高效策略?

爬取动态加载的JavaScript内容,这是现代网页爬虫最常遇到的挑战之一。因为

requests
库只会获取服务器最初返回的HTML,而很多网站的内容是在浏览器端通过JavaScript执行后才填充到页面上的。如果直接用
requests
抓取,你会发现很多数据根本不在HTML源码里。我个人处理这类问题,通常有几种策略,效率和复杂度各不相同。

策略一:分析XHR/AJAX请求(首选,最推荐)

这是我处理动态内容的首选方法,也是效率最高的方式。很多动态内容其实是通过JavaScript向后端API发送AJAX(异步JavaScript和XML)请求来获取数据的,这些数据通常是JSON格式。如果你能直接找到这些API接口,并模拟这些请求,就能直接获取到结构化的数据,省去了复杂的HTML解析。

如何操作?

  1. 打开目标网页。
  2. 打开浏览器的开发者工具(通常是F12)。
  3. 切换到“Network”(网络)选项卡。
  4. 刷新页面,或者进行触发动态内容加载的操作(比如滚动页面、点击按钮)。
  5. 仔细观察网络请求列表。寻找那些
    XHR
    Fetch
    类型的请求,它们的响应通常是JSON或XML。
  6. 分析请求的URL、请求方法(GET/POST)、请求头(Headers)、请求体(Payload/Form Data)以及响应内容。
  7. 使用
    requests
    库模拟这些请求。
import requests
import json

# 假设通过开发者工具分析得到以下API信息
api_url = 'https://www.example.com/api/data?page=1&limit=10'
api_headers = {
    'User-Agent': 'Mozilla/5.0...', # 伪装User-Agent
    'Referer': 'https://www.example.com/', # 某些API会检查Referer
    'Accept': 'application/json, text/plain, */*'
}
api_params = {
    'page': 1,
    'limit': 10
}

try:
    api_response = requests.get(api_url, headers=api_headers, params=api_params, timeout=10)
    api_response.raise_for_status()
    data = api_response.json() # 直接解析JSON数据
    print("通过API获取的数据:")
    print(json.dumps(data, indent=4, ensure_ascii=False))
except requests.exceptions.RequestException as e:
    print(f"API请求失败: {e}")
except json.JSONDecodeError:
    print("API响应不是有效的JSON格式。")

这种方法的好处是速度快,资源消耗小,并且直接拿到的是结构化数据,解析起来非常方便。我经常花大量时间在这一步,因为一旦成功,后续的爬取工作会轻松很多。

策略二:使用无头浏览器(Selenium/Playwright)

当网站的JavaScript逻辑非常复杂,或者数据不是通过清晰的AJAX请求获取,而是通过DOM操作、Canvas渲染等方式生成时,直接分析API可能会非常困难甚至不可能。这时,祭出无头浏览器是最后的手段。

Selenium
Playwright
是两个流行的选择。它们能够启动一个真实的浏览器(只是没有图形界面),执行页面上的所有JavaScript,等待页面完全加载和渲染,然后你再从渲染后的页面中提取数据。

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By # 导入By模块
import time
from bs4 import BeautifulSoup

chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
chrome_options.add_argument('--no-sandbox')
chrome_options.add_argument('--window-size=1920,1080') # 设置窗口大小,有时影响渲染

driver = webdriver.Chrome(options=chrome_options)

try:
    url_js = 'https://www.example.com/dynamic_content_page' # 假设这个页面有动态加载内容
    driver.get(url_js)

    # 关键一步:等待页面内容加载完成。可以等待特定元素出现,或者简单地等待几秒。
    # driver.implicitly_wait(10) # 隐式等待,最长等待10秒
    # 或者显式等待某个元素出现
    # from selenium.webdriver.support.ui import WebDriverWait
    # from selenium.webdriver.support import expected_conditions as EC
    # WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.ID, 'dynamic-data-container')))

    time.sleep(5) # 简单粗暴地等待5秒,确保JS执行完毕

    rendered_html = driver.page_source
    soup = BeautifulSoup(rendered_html, 'html.parser')

    # 现在可以像解析普通HTML一样解析soup对象了
    dynamic_element = soup.find('div', id='dynamic-data-container')
    if dynamic_element:
        print("通过Selenium获取的动态内容:", dynamic_element.get_text().strip())
    else:

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C语言变量命名
C语言变量命名

c语言变量名规则是:1、变量名以英文字母开头;2、变量名中的字母是区分大小写的;3、变量名不能是关键字;4、变量名中不能包含空格、标点符号和类型说明符。php中文网还提供c语言变量的相关下载、相关课程等内容,供大家免费下载使用。

410

2023.06.20

c语言入门自学零基础
c语言入门自学零基础

C语言是当代人学习及生活中的必备基础知识,应用十分广泛,本专题为大家c语言入门自学零基础的相关文章,以及相关课程,感兴趣的朋友千万不要错过了。

638

2023.07.25

c语言运算符的优先级顺序
c语言运算符的优先级顺序

c语言运算符的优先级顺序是括号运算符 > 一元运算符 > 算术运算符 > 移位运算符 > 关系运算符 > 位运算符 > 逻辑运算符 > 赋值运算符 > 逗号运算符。本专题为大家提供c语言运算符相关的各种文章、以及下载和课程。

362

2023.08.02

c语言数据结构
c语言数据结构

数据结构是指将数据按照一定的方式组织和存储的方法。它是计算机科学中的重要概念,用来描述和解决实际问题中的数据组织和处理问题。数据结构可以分为线性结构和非线性结构。线性结构包括数组、链表、堆栈和队列等,而非线性结构包括树和图等。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

263

2023.08.09

c语言random函数用法
c语言random函数用法

c语言random函数用法:1、random.random,随机生成(0,1)之间的浮点数;2、random.randint,随机生成在范围之内的整数,两个参数分别表示上限和下限;3、random.randrange,在指定范围内,按指定基数递增的集合中获得一个随机数;4、random.choice,从序列中随机抽选一个数;5、random.shuffle,随机排序。

632

2023.09.05

c语言const用法
c语言const用法

const是关键字,可以用于声明常量、函数参数中的const修饰符、const修饰函数返回值、const修饰指针。详细介绍:1、声明常量,const关键字可用于声明常量,常量的值在程序运行期间不可修改,常量可以是基本数据类型,如整数、浮点数、字符等,也可是自定义的数据类型;2、函数参数中的const修饰符,const关键字可用于函数的参数中,表示该参数在函数内部不可修改等等。

564

2023.09.20

c语言get函数的用法
c语言get函数的用法

get函数是一个用于从输入流中获取字符的函数。可以从键盘、文件或其他输入设备中读取字符,并将其存储在指定的变量中。本文介绍了get函数的用法以及一些相关的注意事项。希望这篇文章能够帮助你更好地理解和使用get函数 。

671

2023.09.20

c数组初始化的方法
c数组初始化的方法

c语言数组初始化的方法有直接赋值法、不完全初始化法、省略数组长度法和二维数组初始化法。详细介绍:1、直接赋值法,这种方法可以直接将数组的值进行初始化;2、不完全初始化法,。这种方法可以在一定程度上节省内存空间;3、省略数组长度法,这种方法可以让编译器自动计算数组的长度;4、二维数组初始化法等等。

618

2023.09.22

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号