
本文介绍如何在不修改原有同步函数的前提下,通过 asyncio 实现“顺序发起但不等待响应”的循环调用,兼顾执行效率与消息时序可靠性。
在实际开发中,我们常遇到这样一类场景:需按严格顺序向外部服务(如协作平台 Space)逐条发送消息,但每条请求本身是 I/O 密集型、耗时数十毫秒,且你无法修改 send_to_space() 的实现,也不需要处理其返回值。此时若用传统同步循环(for item in items: send_to_space(item)),整个流程将线性阻塞——前一条未完成,后一条就无法发出,总耗时 = Σ(单次延迟),严重拖慢吞吐。
直接使用 threading 并不可取:多线程虽能并发,但无法保证“发起顺序”与“实际网络发出顺序”一致(线程调度不确定性 + 网络抖动),且 Python 的 GIL 对 I/O 型任务收益有限,还引入了线程安全与资源管理复杂度。
✅ 正确解法是 asyncio + create_task() ——它不改变函数同步本质,而是将每次调用“包裹为协程任务并立即调度”,让事件循环在等待 I/O 时自动切换到下一个任务,从而实现逻辑上顺序发起、物理上重叠执行的效果:
import asyncio
async def send_items(items_list):
for item in items_list:
sub_item = item['sub_item']
# 创建任务并立即调度,不 await → 不阻塞循环
asyncio.create_task(send_to_space(sub_item))
# (可选)微小延迟避免瞬间洪峰,如:await asyncio.sleep(0.001)
# 启动异步主程序
if __name__ == "__main__":
asyncio.run(send_items(my_finite_list))⚠️ 关键说明:
立即学习“Python免费学习笔记(深入)”;
- asyncio.create_task() 将 send_to_space(sub_item)(一个普通同步函数)作为后台任务提交给事件循环,立刻返回任务对象,不等待其完成;
- 循环继续执行下一次迭代,因此所有请求几乎“瞬时发出”,实际网络调用由事件循环在后台并发驱动;
- 因为循环是串行的,create_task() 调用本身严格按 items_list 顺序执行,确保任务提交顺序可控(即“发起保序”),满足业务对时序的隐含要求;
- 若 send_to_space 内部使用 requests 等同步 HTTP 库,该方案依然有效——create_task 不会使其变“异步”,但能避免主线程空等,提升 CPU 利用率;若未来升级为 httpx.AsyncClient,只需将 send_to_space 改写为 async def 并 await 即可获得真正异步 I/O 加速。
? 补充建议:
- 如需监控发送进度或捕获异常(send_to_space 可能抛错),可用 asyncio.gather() 配合 return_exceptions=True,但会失去“完全不等待”的特性;
- 绝对避免在循环中 await send_to_space(...) ——这又退化为同步阻塞;
- Python ≥3.9 已默认支持结构化并发,如需更强控制力(如超时、取消、错误传播),可进一步封装为 asyncio.TaskGroup。
综上,asyncio.create_task() 是轻量、安全、符合语义的首选方案:零侵入改造、保序、高效、易维护。







