Go微服务监控核心是采集请求级和系统级指标并标准化暴露给Prometheus;推荐用net/http/pprof、prometheus/client_golang和HTTP中间件实现,包括请求计时与状态码统计、pprof运行时分析、OpenTelemetry分布式追踪联动及/metrics端点暴露。

在 Go 微服务中做监控,核心是采集请求级和系统级指标,并通过标准化方式暴露给 Prometheus 等监控系统。不需要重造轮子,用好 net/http/pprof、prometheus/client_golang 和中间件即可快速落地。
用 HTTP 中间件统计请求指标
为每个 HTTP handler 添加计时、状态码、路径维度的统计,是最直接的请求监控方式。推荐使用 promhttp + 自定义中间件:
- 定义指标:用
prometheus.NewCounterVec统计请求数,NewHistogramVec记录响应耗时(建议按 path 和 status 分桶) - 中间件逻辑:在 handler 前记录开始时间,handler 后计算耗时、捕获 status code,再打点
- 注意:避免在中间件里做阻塞操作;耗时直方图的 buckets 要合理设置(如
[]float64{0.01, 0.05, 0.1, 0.2, 0.5, 1, 2, 5},单位秒)
集成 pprof 暴露运行时性能数据
net/http/pprof 是 Go 官方提供的运行时分析接口,适合排查 CPU、内存、goroutine 等问题:
- 只需在服务中注册:
http.HandleFunc("/debug/pprof/", pprof.Index),默认启用 goroutine、heap、threadcreate 等端点 - 生产环境建议加简单鉴权(如 Basic Auth),或只监听内网地址(
http.ListenAndServe("127.0.0.1:6060", nil)) - Prometheus 可通过
prometheus-pusher或自研 exporter 抓取/debug/pprof/数据并转为指标(如 goroutines 数量)
用 OpenTelemetry 实现分布式追踪与指标联动
当微服务调用链变长,单纯 HTTP 指标不够,需关联请求 ID、上下游耗时、错误传播路径:
立即学习“go语言免费学习笔记(深入)”;
- 引入
go.opentelemetry.io/otel,用otelhttp.NewHandler包装 handler,自动注入 trace context - 结合
prometheus.Exporter,把 trace 中的 latency、error_count 等同步写入 Prometheus 指标(例如:每条 trace 结束时更新http_server_duration_seconds) - 采样策略很重要:高并发下全量 trace 会拖慢服务,可用
ParentBased(TraceIDRatioBased(0.01))控制 1% 采样率
暴露指标端点并接入 Prometheus
所有指标最终要统一暴露给 Prometheus 抓取:
- 注册
promhttp.Handler()到/metrics路由,确保返回标准文本格式(Content-Type: text/plain; version=0.0.4) - 避免在 metrics handler 中触发业务逻辑或 DB 查询——它必须是轻量、无副作用的
- 在 Prometheus 配置中添加 job,指定服务地址和抓取间隔(如
scrape_interval: 15s) - 可搭配 Grafana 做看板:常用面板包括 QPS、P95 延迟、5xx 错误率、goroutines 数量趋势
不复杂但容易忽略。关键不是堆功能,而是让指标真正可查、可告警、可归因。











