Go pprof 可直接定位 CPU、内存、goroutine 瓶颈,需启用 /debug/pprof/ 端点;CPU 采样建议 ≥30 秒,内存 profile 要区分 allocs(总分配)与 heap(存活对象),火焰图中 mallocgc 高占比需溯源调用方。

Go 自带的 pprof 能直接定位 CPU、内存、goroutine 等瓶颈,不需要第三方工具,但必须在运行时暴露 /debug/pprof/ 端点,且采样方式不对就容易错过真实热点。
启用 HTTP pprof 服务(必须先做)
默认不开启,需手动注册。若用 net/http 启服务,最简方式是导入并挂载:
import _ "net/http/pprof"
func main() {
go func() {
log.Println(http.ListenAndServe("localhost:6060", nil))
}()
// ... your app logic
}
注意:import _ "net/http/pprof" 是触发 init 注册路由的关键;端口可改,但路径固定为 /debug/pprof/;若用 Gin/echo 等框架,需显式 Handle 或 Group 挂载,不能依赖全局 mux。
抓取 CPU profile(推荐 30 秒以上)
CPU 采样是统计型,时间太短(如 5s)会导致样本不足、函数排序失真。生产环境建议用 curl -o cpu.pprof "http://localhost:6060/debug/pprof/profile?seconds=30"。
立即学习“go语言免费学习笔记(深入)”;
-
seconds=30是实际采样时长,不是超时值 - 避免在高负载突增时立即采集,应等系统稳定几秒再开始
- 若程序无 HTTP 服务,可用
runtime/pprof手动 StartCPUProfile,但需自行控制启停和文件写入
用 go tool pprof 分析生成的 profile 文件
拿到 cpu.pprof 后,进入交互式分析:
go tool pprof cpu.pprof
常用命令:
-
top:看耗时 top 函数(单位是采样数,非绝对时间) -
web:生成火焰图(需本地装 graphviz) -
list:显示该函数对应源码行及每行采样数 -
peek:快速过滤含关键词的调用栈
注意:pprof 默认按“累加耗时”排序,即包含子调用;若只想看函数自身开销,用 top -cum 或 top -focus 过滤。
内存 profile 容易误读的两个点
内存 profile 分 allocs(分配总量)和 heap(当前堆驻留),二者语义完全不同:
-
/debug/pprof/allocs:记录所有 malloc,适合查高频小对象分配(如循环中不断 new struct) -
/debug/pprof/heap:只抓 GC 后存活对象,适合查内存泄漏或大对象长期驻留 - 执行
curl "http://localhost:6060/debug/pprof/heap?gc=1"可强制触发一次 GC 再采样,结果更干净
火焰图里如果看到大量 runtime.mallocgc 占比高,别急着优化它——要顺着调用栈往上找是谁在频繁申请。











