0

0

python如何计算程序的运行时间_python计算代码执行时间的方法

尼克

尼克

发布时间:2025-09-13 12:19:01

|

891人浏览过

|

来源于php中文网

原创

使用time.time()、time.perf_counter()、time.process_time()和timeit模块可测量Python代码执行时间;其中time.time()简单但精度低,受系统时钟影响;perf_counter()提供高精度单调计时,适合短时间测量;process_time()仅统计CPU时间,排除I/O等待;timeit模块通过多次重复运行代码并取最优值,适用于微基准测试,能更准确评估小段代码性能。在性能优化中,除时间测量外,还需考虑内存使用、CPU剖析、I/O延迟、算法复杂度、GIL限制及代码可读性等因素,综合运用工具如cProfile、memory_profiler和多进程等策略,才能有效识别瓶颈并提升整体性能。

python如何计算程序的运行时间_python计算代码执行时间的方法

想知道Python代码到底跑了多久?这在日常开发和性能优化中是个再常见不过的需求了。简单来说,Python提供了几个核心工具来帮你搞定这事儿,最常用的是

time
模块,它能满足大部分日常计时需求;而如果追求极致的精确度,比如要比较不同算法的细微性能差异,
timeit
模块则是你的不二之选。

解决方案

在Python中测量代码执行时间,我们通常会用到

time
模块里的几个函数,以及专门用于性能基准测试的
timeit
模块。

1. 使用

time.time()
进行简单计时

这是最直观也最常用的方法,它返回自纪元(通常是1970年1月1日00:00:00 UTC)以来的秒数。

立即学习Python免费学习笔记(深入)”;

import time

start_time = time.time()
# 你的代码块
sum_val = 0
for i in range(10000000):
    sum_val += i
end_time = time.time()

print(f"代码执行时间 (time.time()): {end_time - start_time:.4f} 秒")

这种方法简单易用,适合测量整个脚本或较大代码块的运行时间。但它的精度受限于系统时钟,而且如果系统时间在代码运行期间被调整(比如通过NTP同步),结果可能会受到影响。

2. 使用

time.perf_counter()
进行高精度计时

time.perf_counter()
返回一个性能计数器的值,它是一个绝对时间,但通常不代表任何实际的日期时间,只用于测量短时间间隔。它的精度比
time.time()
更高,并且不受系统时钟调整的影响。

import time

start_perf = time.perf_counter()
# 你的代码块
_ = [x * x for x in range(10000000)]
end_perf = time.perf_counter()

print(f"代码执行时间 (time.perf_counter()): {end_perf - start_perf:.6f} 秒")

当我们需要对代码片段进行更精确的微基准测试时,

perf_counter
是更好的选择。

3. 使用

time.process_time()
测量CPU时间

time.process_time()
返回当前进程的系统和用户CPU时间之和。这意味着它只计算CPU花在执行代码上的时间,不包括I/O等待、睡眠或其他进程占用的时间。

import time

start_cpu = time.process_time()
# 你的代码块
# 模拟一些CPU密集型操作
def fibonacci(n):
    a, b = 0, 1
    for _ in range(n):
        a, b = b, a + b
    return a

fibonacci(300000)
end_cpu = time.process_time()

print(f"代码执行CPU时间 (time.process_time()): {end_cpu - start_cpu:.6f} 秒")

如果你想知道代码实际“消耗”了多少CPU资源,而不是总的“墙钟时间”,

process_time
会给你更准确的答案。

4. 使用

timeit
模块进行专业的性能基准测试

timeit
模块专门为测量小段代码的执行时间而设计,它会多次运行你的代码,然后给出平均时间,从而减少单次运行的随机性误差和测量本身的开销。这对于比较不同算法或实现方式的性能差异非常有用。

import timeit

# 比较两种列表生成方式的性能
setup_code = "import random"
stmt_list_comp = "[random.randint(0, 100) for _ in range(10000)]"
stmt_loop_append = """
my_list = []
for _ in range(10000):
    my_list.append(random.randint(0, 100))
"""

# 运行10000次,重复3次取最好成绩
time_comp = timeit.timeit(stmt=stmt_list_comp, setup=setup_code, number=10000, repeat=3)
time_loop = timeit.timeit(stmt=stmt_loop_append, setup=setup_code, number=10000, repeat=3)

print(f"列表推导式执行时间 (timeit): {min(time_comp)/10000:.6f} 秒/次")
print(f"循环append执行时间 (timeit): {min(time_loop)/10000:.6f} 秒/次")

# 也可以直接测量函数
def my_function():
    return [x * 2 for x in range(10000)]

# timeit.Timer 的用法
timer = timeit.Timer("my_function()", globals=globals()) # globals=globals() 使得my_function可见
result = timer.timeit(number=1000)
print(f"my_function 执行时间 (timeit.Timer): {result/1000:.6f} 秒/次")

timeit
在命令行中也非常好用,比如
python -m timeit "'-'.join(str(n) for n in range(100))"
。它会自动帮你处理多次运行和平均值计算,非常方便。

Python中测量代码执行时间,为什么简单的
time.time()
有时不够精确?

这个问题其实挺有意思的,很多初学者或者说平时不深究的开发者,可能都会觉得

time.time()
就够用了,毕竟它也返回秒数嘛。但实际上,它在某些场景下确实会“掉链子”,或者说不够“诚实”。

首先,

time.time()
依赖的是系统时钟,也就是我们电脑右下角显示的时间。这个时间是可能被调整的。比如,你的系统会定期通过网络时间协议(NTP)与时间服务器同步,或者你手动改了时间。如果你的代码恰好在两次时间同步之间运行,或者在手动调整时间时跨越了那个点,那么
time.time()
计算出来的时间差就可能出现偏差,甚至可能是负数(虽然这种情况比较极端)。它就像你拿着一块普通手表计时,如果手表本身走时不准或者你中途调整了它,结果自然就不准确了。

其次,

time.time()
的精度在不同操作系统和Python版本上可能有所不同。虽然现代系统通常能提供毫秒甚至微秒级的精度,但在一些老旧系统或者某些特定的虚拟化环境中,它的分辨率可能没那么高,导致在测量非常短的代码片段时,误差相对较大。举个例子,如果一个操作只耗时几十微秒,而
time.time()
的最小跳动单位是毫秒,那它就无法精确捕捉到这个细微的差别。

再者,

time.time()
测量的是“墙钟时间”(wall-clock time),也就是从开始到结束,实际过去了多少时间。这个时间包含了CPU执行代码的时间、I/O等待时间(比如读写文件、网络请求)、以及操作系统调度其他进程所花费的时间。如果你只是想知道你的代码纯粹消耗了多少CPU资源,
time.time()
就会把这些非CPU执行的时间也算进去,导致结果不能真实反映代码本身的计算效率。

所以,当我们需要进行严格的性能分析,特别是微基准测试(micro-benchmarking)时,

time.time()
的这些局限性就显得尤为突出。这时,
time.perf_counter()
timeit
模块的优势就体现出来了。
perf_counter
提供的是高分辨率的、单调递增的计数器,它不关心系统时钟的调整,只管从一个点到另一个点流逝了多少“滴答”;而
timeit
则通过多次运行和统计,进一步规避了单次测量的随机误差和外部干扰,力求在“实验室条件”下给出最纯粹的性能数据。

如何使用
timeit
模块对Python函数进行性能基准测试?

timeit
模块是Python标准库中一个非常强大的工具,专门用于对小段代码或函数进行精确的性能基准测试。它的核心思想是:多次重复运行目标代码,然后取平均值或最佳值,以消除单次运行的随机性、垃圾回收、操作系统调度等因素带来的干扰。

使用

timeit
主要有两种方式:通过
timeit.timeit()
函数,或者通过
timeit.Timer
类。

甲骨文AI协同平台
甲骨文AI协同平台

专门用于甲骨文研究的革命性平台

下载

1. 使用

timeit.timeit()
函数

这是最常用也最简洁的方式,特别适合快速测试一行或几行代码的性能。

import timeit

# 假设我们想测试一个列表推导式的性能
# stmt: 要执行的代码语句(字符串形式)
# setup: 运行stmt之前需要执行的设置代码(字符串形式),比如导入模块或定义函数
# number: stmt要执行的次数
# repeat: 整个测试重复的次数,timeit会返回一个列表,包含每次重复的总时间

# 示例1: 比较字符串拼接的效率
# setup代码用于导入time模块,确保stmt中的time.time()可用
setup_str = "import time"

# 两种字符串拼接方式
stmt_join = "''.join(str(n) for n in range(1000))"
stmt_plus = "s = ''; for n in range(1000): s += str(n)"

# 运行10000次,重复5次
results_join = timeit.timeit(stmt=stmt_join, setup=setup_str, number=10000, repeat=5)
results_plus = timeit.timeit(stmt=stmt_plus, setup=setup_str, number=10000, repeat=5)

print(f"'-'.join() 方式 (最佳): {min(results_join):.6f} 秒 (总计 {10000} 次)")
print(f"'+=' 方式 (最佳): {min(results_plus):.6f} 秒 (总计 {10000} 次)")

# 示例2: 测量一个自定义函数的性能
def my_complex_calculation(n):
    return sum(i*i for i in range(n))

# setup中定义函数,并确保其在timeit执行环境中可见
# globals=globals() 是一个技巧,它将当前全局命名空间传递给timeit,
# 这样my_complex_calculation就可以在stmt中被调用了。
setup_func = "from __main__ import my_complex_calculation" # 或者直接 globals=globals()
time_func = timeit.timeit(stmt="my_complex_calculation(10000)", setup=setup_func, number=1000, repeat=3)
print(f"my_complex_calculation(10000) 最佳执行时间: {min(time_func):.6f} 秒 (总计 {1000} 次)")

timeit.timeit()
会返回一个包含
repeat
次测试结果的列表。通常我们关注的是这个列表中的最小值(
min()
),因为它最能代表代码在“最佳”状态下的性能,排除了由于操作系统调度、垃圾回收或其他后台任务造成的偶然性延迟。

2. 使用

timeit.Timer

Timer
类提供了更灵活的控制,特别适合当你需要多次运行同一个测试,或者在测试前进行复杂的设置时。

import timeit

# 假设我们要测试一个排序函数的性能
data_size = 10000
# setup代码用于生成随机数据,确保每次测试的数据是独立的
setup_timer = f"""
import random
data = [random.randint(0, 10000) for _ in range({data_size})]
"""

# stmt是我们要测试的代码,这里我们使用list.sort()
stmt_timer = "data.sort()"

# 创建Timer对象
# Timer(stmt, setup, timer=default_timer, globals=None)
# default_timer 通常是 time.perf_counter(),提供高精度计时
timer_obj = timeit.Timer(stmt=stmt_timer, setup=setup_timer)

# 运行测试
# timeit(number=DEFAULT_NUMBER) 方法执行测试
# repeat(repeat=DEFAULT_REPEAT, number=DEFAULT_NUMBER) 方法返回多次重复的结果
results_timer = timer_obj.repeat(repeat=5, number=100) # 重复5次,每次运行100次stmt

print(f"list.sort() 排序 {data_size} 个元素 (最佳): {min(results_timer):.6f} 秒 (总计 {100} 次)")

timeit
模块的精髓在于它的“隔离性”和“重复性”。
setup
参数确保了每次测试都在一个相对干净、一致的环境下进行,避免了前一次运行对后一次的影响。而
number
repeat
参数则通过大量重复运行,让我们可以从统计学上获得更可靠的性能数据,过滤掉那些偶然的“噪音”。当你需要对比不同算法的性能优劣,或者找出代码中真正的性能瓶颈时,
timeit
无疑是你的得力助手。

在Python性能优化过程中,除了时间测量,还有哪些关键考量?

单纯测量代码运行时间只是性能优化的第一步,它告诉你“哪里慢了”,但并没有直接告诉你“为什么慢”以及“如何变快”。要真正做好性能优化,我们需要更全面的视角和更深入的分析。

1. 内存使用效率

时间是重要的,但内存同样关键。一个运行很快但吃掉所有内存的程序显然不是一个好程序。

  • 内存分析器:
    memory_profiler
    objgraph
    等工具可以帮助你追踪程序运行时的内存使用情况,找出内存泄漏或不必要的内存占用
  • 数据结构选择: Python内置的数据结构(列表、字典、集合、元组)各有优劣。例如,列表的append操作很快,但在头部插入或删除效率低;字典查找效率高,但有额外内存开销。选择合适的数据结构能显著影响内存和时间性能。
  • 生成器表达式: 当处理大量数据时,使用生成器(generator)而非一次性生成整个列表,可以大大减少内存占用,实现“惰性计算”。

2. CPU剖析(Profiling)

时间测量告诉你总耗时,但CPU剖析能深入到函数层面,告诉你哪个函数、哪行代码占用了最多的CPU时间。

  • cProfile
    profile
    模块:
    Python标准库提供了这两个强大的工具。它们可以生成详细的报告,显示每个函数的调用次数、总耗时、以及自身耗时(不包括其调用的子函数)。通过可视化工具(如
    snakeviz
    ),可以更直观地看到调用图和性能瓶颈。
  • 关注热点 剖析报告会帮你找到“热点”函数,也就是那些被频繁调用或自身执行时间很长的函数,这往往是优化的重点。

3. I/O操作与网络延迟

很多时候,程序的瓶颈不在于CPU计算,而在于等待外部资源,比如:

  • 文件读写: 大文件的读写速度受限于硬盘性能。
  • 网络请求: API调用、数据库查询等都涉及网络延迟,这是程序自身难以控制的外部因素。
  • 数据库交互: 复杂的SQL查询、不合理的索引都会导致数据库响应缓慢。 对于这类问题,优化思路可能包括批量处理、缓存、异步I/O(如
    asyncio
    )或并行处理。

4. 算法复杂度

这是性能优化的根本。一个O(N^2)的算法,无论你用多么快的语言或多强的硬件,在数据量N增大时,都无法与一个O(N log N)或O(N)的算法匹敌。

  • 大O表示法: 理解你所用算法的时间和空间复杂度。
  • 选择更优算法: 很多时候,性能瓶颈是由于选择了次优的算法。例如,从线性搜索改为二分搜索,或从冒泡排序改为快速排序。

5. Python的全局解释器锁(GIL)

Python的GIL是一个特殊的存在,它确保在任何给定时刻,只有一个线程在执行Python字节码。这意味着,即使在多核CPU上,纯Python的多线程程序也无法真正并行执行CPU密集型任务。

  • CPU密集型任务: 对于这类任务,多进程(
    multiprocessing
    模块)是更好的选择,因为每个进程都有自己的Python解释器和GIL。
  • I/O密集型任务: GIL对I/O操作影响较小,因为在等待I/O时,GIL会被释放,其他线程可以运行。因此,多线程在I/O密集型任务中仍能发挥作用。
  • C扩展: 如果对性能有极致要求,可以将核心的CPU密集型部分用C/C++编写成Python扩展模块,它们可以绕过GIL。

6. 代码可读性与性能的权衡

最后但同样重要的一点是,不要为了微小的性能提升而牺牲代码的可读性、可维护性。过早优化(Premature Optimization)是编程中的一大陷阱。通常,我们应该先写出清晰、正确的代码,然后通过测量找出真正的瓶颈,再针对性地进行优化。有时候,一个简单的重构或更清晰的逻辑,反而能带来意想不到的性能提升。

总之,性能优化是一个系统工程,需要结合多种工具和方法,从不同维度审视代码,才能找到最有效、最可持续的解决方案。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

769

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

639

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1305

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

709

2023.08.11

Java JVM 原理与性能调优实战
Java JVM 原理与性能调优实战

本专题系统讲解 Java 虚拟机(JVM)的核心工作原理与性能调优方法,包括 JVM 内存结构、对象创建与回收流程、垃圾回收器(Serial、CMS、G1、ZGC)对比分析、常见内存泄漏与性能瓶颈排查,以及 JVM 参数调优与监控工具(jstat、jmap、jvisualvm)的实战使用。通过真实案例,帮助学习者掌握 Java 应用在生产环境中的性能分析与优化能力。

19

2026.01.20

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 6.9万人学习

Django 教程
Django 教程

共28课时 | 3.3万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号