0

0

Python中多线程怎么实现 Python中多线程编程指南

穿越時空

穿越時空

发布时间:2025-08-27 15:18:01

|

1005人浏览过

|

来源于php中文网

原创

Python多线程适用于I/O密集型任务,因GIL在I/O等待时释放,允许其他线程运行,从而提升并发效率;但CPU密集型任务应使用multiprocessing模块实现真正并行。

python中多线程怎么实现 python中多线程编程指南

Python中实现多线程,主要依赖内置的

threading
模块。它的核心思想是让程序在同一进程内并发执行多个任务,尤其适合处理那些需要等待外部资源响应(比如网络请求、文件读写)的I/O密集型操作。不过,Python的全局解释器锁(GIL)是个绕不开的话题,它意味着在任何时刻,只有一个线程能真正执行Python字节码,这使得多线程在CPU密集型任务上并不能实现真正的并行计算。

解决方案

在Python里,多线程编程主要围绕

threading
模块展开。最直接的方式就是创建
threading.Thread
的实例。你可以给它传入一个可调用对象(比如函数)作为目标任务,然后调用
start()
方法启动线程,最后用
join()
等待线程完成。

import threading
import time

def task(name):
    print(f"线程 {name}: 启动")
    time.sleep(2) # 模拟I/O操作,比如网络请求或文件读写
    print(f"线程 {name}: 结束")

# 创建线程
thread1 = threading.Thread(target=task, args=("一号",))
thread2 = threading.Thread(target=task, args=("二号",))

# 启动线程
thread1.start()
thread2.start()

# 等待所有线程完成
thread1.join()
thread2.join()

print("所有线程都已完成。")

当然,更高级一点,我们还会用到

concurrent.futures
模块中的
ThreadPoolExecutor
,它提供了一个更简洁、更方便的线程池管理方式,省去了手动创建和管理线程的麻烦。我个人觉得,对于大多数并发任务,尤其是那些I/O密集型的,
ThreadPoolExecutor
是个非常好的起点,它让代码看起来更整洁,也更容易管理。

from concurrent.futures import ThreadPoolExecutor
import time

def intensive_io_task(url):
    print(f"开始下载 {url}...")
    time.sleep(1 + hash(url) % 3) # 模拟网络延迟
    print(f"完成下载 {url}")
    return f"内容来自 {url}"

urls = [
    "http://example.com/page1",
    "http://example.com/page2",
    "http://example.com/page3",
    "http://example.com/page4"
]

# 使用ThreadPoolExecutor创建线程池,max_workers指定最大线程数
with ThreadPoolExecutor(max_workers=3) as executor:
    # 提交任务并获取Future对象
    futures = [executor.submit(intensive_io_task, url) for url in urls]

    for future in futures:
        # future.result()会阻塞直到任务完成并返回结果
        print(f"结果: {future.result()}")

print("所有网络请求已处理完毕。")

多线程的核心挑战之一是共享数据的同步。Python提供了多种同步原语来避免竞态条件(race condition),比如

Lock
RLock
Semaphore
Event
Condition
Lock
是最基础的,它确保同一时间只有一个线程能访问被保护的代码块或数据。

立即学习Python免费学习笔记(深入)”;

import threading

balance = 0
lock = threading.Lock() # 创建一个锁

def deposit(amount):
    global balance
    for _ in range(100000):
        lock.acquire() # 获取锁
        try:
            balance += amount
        finally:
            lock.release() # 释放锁,确保即使出错也能释放

def withdraw(amount):
    global balance
    for _ in range(100000):
        lock.acquire()
        try:
            balance -= amount
        finally:
            lock.release()

thread_deposit = threading.Thread(target=deposit, args=(1,))
thread_withdraw = threading.Thread(target=withdraw, args=(1,))

thread_deposit.start()
thread_withdraw.start()

thread_deposit.join()
thread_withdraw.join()

print(f"最终余额: {balance}") # 理论上应该是0,如果不用锁,结果会不确定

这里我们用

Lock
保护了
balance
变量,确保了并发操作的原子性,避免了因多线程同时修改导致的数据错误。

Python多线程在I/O密集型任务中为何表现出色?(及其背后的GIL考量)

说实话,很多人一提到Python多线程,第一个想到的就是全局解释器锁(GIL),然后就觉得“Python多线程没用”或者“它根本不能并行”。但这种观点有点儿片面。我个人觉得,理解GIL的关键在于它只允许一个线程在任何给定时间执行Python字节码,但这并不意味着当一个线程在等待外部I/O操作(比如从网络读取数据、写入文件、数据库查询)时,其他线程就不能运行了。恰恰相反,当一个Python线程执行I/O操作时,它会主动释放GIL,这样其他等待中的Python线程就有机会获取GIL并执行它们的Python代码。

这就是为什么Python多线程在处理I/O密集型任务时非常有效。想象一下,你的程序需要同时下载多个文件,或者向多个API发送请求。如果用单线程,你必须等待一个下载完成后才能开始下一个,效率极低。而多线程则可以同时发起这些请求,当一个线程在等待网络响应时,另一个线程可以继续处理它的网络请求。这样一来,虽然你的CPU并没有并行地执行Python代码,但你的程序却在“等待”的时间上实现了并发,大大提升了整体吞吐量。

在我看来,这种“并发而非并行”的特性,让Python多线程在Web服务器、爬虫、数据采集、GUI应用(保持UI响应)等场景下大放异彩。它能有效利用等待时间,让程序看起来更快、响应更及时。所以,别被GIL吓倒,关键是看你的任务类型。

Joker AIx
Joker AIx

一站式AI创意生产平台,覆盖图像、视频、音频、文案全品类创作

下载

如何在Python多线程应用中安全地共享数据并避免竞态条件?

多线程编程最让人头疼的问题之一就是数据同步和竞态条件。多个线程同时访问和修改同一个共享资源,如果没有适当的保护,结果往往是不可预测的,甚至会引发难以调试的bug。这就像多个人同时往一个存钱罐里扔钱或取钱,如果没有规矩,账目肯定乱套。

Python的

threading
模块提供了一系列同步原语来解决这个问题。最常用也最基础的是
threading.Lock
。它是一个互斥锁,任何时候只有一个线程能持有这个锁。当一个线程
acquire()
(获取)了锁,其他试图获取同一把锁的线程就会被阻塞,直到持有锁的线程
release()
(释放)它。这确保了被锁保护的代码块(我们称之为“临界区”)在任何时候都只被一个线程执行。

import threading

shared_data = []
data_lock = threading.Lock() # 创建一个锁实例

def add_data(item):
    # 使用with语句管理锁,更安全、更简洁,避免忘记释放
    with data_lock:
        shared_data.append(item)
        print(f"线程 {threading.current_thread().name} 添加了: {item}, 当前数据: {shared_data}")

threads = [threading.Thread(target=add_data, args=(i,), name=f"Worker-{i}") for i in range(5)]
for t in threads:
    t.start()
for t in threads:
    t.join()

print(f"最终共享数据: {shared_data}")

除了

Lock
,还有
RLock
(可重入锁,同一个线程可以多次获取而不会死锁)、
Semaphore
(信号量,控制同时访问资源的线程数量)、
Event
(事件,用于线程间的简单通信)和
Condition
(条件变量,更复杂的线程间通信)。

不过,我个人觉得,如果共享的数据结构比较复杂,或者线程间的通信需求很高,直接操作锁会变得非常繁琐且容易出错。这时候,

queue
模块就显得尤为重要了。
queue.Queue
(以及
LifoQueue
PriorityQueue
)是线程安全的队列,它内部已经处理好了锁机制,你只需要简单地
put()
get()
数据,就能安全地在线程间传递信息,大大降低了出错的概率。这是我处理线程间数据交换时最喜欢用的工具,它把复杂的同步细节都封装起来了。

Python多线程的适用边界:何时应避免使用,以及更优的替代方案

虽然Python多线程在I/O密集型任务中表现不俗,但它并非万金油。我有时会遇到一些开发者,无论什么任务都想用多线程来“加速”,结果发现性能不升反降,甚至程序变得更慢了。这通常是因为他们没有充分理解多线程的适用边界。

最核心的一点,就是前面提到的GIL。如果你的任务是CPU密集型的,比如大量的数学计算、图像处理、数据分析(不涉及I/O等待),那么Python的多线程并不能带来真正的并行计算。因为GIL的存在,同一时刻只有一个线程在执行Python字节码,其他线程都在等待GIL的释放。这种情况下,创建多个线程反而会增加额外的开销,比如线程创建、销毁、上下文切换的成本,这反而会让程序的总执行时间变长。

那么,当遇到CPU密集型任务时,我们应该怎么做呢?

  1. multiprocessing
    模块: 这是Python官方推荐的解决方案,用于实现真正的并行计算。
    multiprocessing
    模块通过创建独立的进程来规避GIL的限制,每个进程都有自己的Python解释器和内存空间。这意味着它们可以同时在多核CPU上运行,实现真正的并行。虽然进程间的通信比线程间复杂一些(需要序列化数据),但对于CPU密集型任务,它的性能提升是显而易见的。我个人觉得,如果你真的需要压榨多核CPU的性能,
    multiprocessing
    是你的首选。

    import multiprocessing
    import time
    
    def cpu_bound_task(n):
        process_name = multiprocessing.current_process().name
        print(f"进程 {process_name}: 开始计算 {n}...")
        result = sum(i*i for i in range(n))
        print(f"进程 {process_name

相关文章

编程速学教程(入门课程)
编程速学教程(入门课程)

编程怎么学习?编程怎么入门?编程在哪学?编程怎么学才快?不用担心,这里为大家提供了编程速学教程(入门课程),有需要的小伙伴保存下载就能学习啦!

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

549

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

30

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

44

2026.01.06

线程和进程的区别
线程和进程的区别

线程和进程的区别:线程是进程的一部分,用于实现并发和并行操作,而线程共享进程的资源,通信更方便快捷,切换开销较小。本专题为大家提供线程和进程区别相关的各种文章、以及下载和课程。

765

2023.08.10

Python 多线程与异步编程实战
Python 多线程与异步编程实战

本专题系统讲解 Python 多线程与异步编程的核心概念与实战技巧,包括 threading 模块基础、线程同步机制、GIL 原理、asyncio 异步任务管理、协程与事件循环、任务调度与异常处理。通过实战示例,帮助学习者掌握 如何构建高性能、多任务并发的 Python 应用。

377

2025.12.24

java多线程相关教程合集
java多线程相关教程合集

本专题整合了java多线程相关教程,阅读专题下面的文章了解更多详细内容。

32

2026.01.21

C++多线程相关合集
C++多线程相关合集

本专题整合了C++多线程相关教程,阅读专题下面的的文章了解更多详细内容。

29

2026.01.21

C# 多线程与异步编程
C# 多线程与异步编程

本专题深入讲解 C# 中多线程与异步编程的核心概念与实战技巧,包括线程池管理、Task 类的使用、async/await 异步编程模式、并发控制与线程同步、死锁与竞态条件的解决方案。通过实际项目,帮助开发者掌握 如何在 C# 中构建高并发、低延迟的异步系统,提升应用性能和响应速度。

103

2026.02.06

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Python 并发编程实战
Python 并发编程实战

共12课时 | 0.7万人学习

Linux 教程
Linux 教程

共28课时 | 40.8万人学习

后盾网Linux视频教程
后盾网Linux视频教程

共48课时 | 11.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号