Go监控容器网络流量需绕过运行时抽象,通过cgroup PID定位+读取/proc/pid/net/dev统计带宽与包数,结合conntrack或eBPF统计请求数,并用Prometheus暴露指标。

在 Go 中监控容器网络流量(统计请求数和带宽使用),不能直接依赖 Go 运行时的网络栈抽象,因为容器的网络由宿主机内核(如 cgroups + net_cls/net_prio + iptables/nftables)和 CNI 插件管理。Go 程序需通过读取 Linux 内核暴露的指标来实现,核心思路是:定位容器对应的网络命名空间、识别其使用的网络接口或 cgroup 路径,再采集 /proc、/sys 或 eBPF 数据。
1. 通过容器 cgroup 获取网络 I/O 统计(简单可靠)
大多数容器运行时(Docker、containerd)会将容器进程归入独立的 cgroup v1(或 v2)路径。网络收发字节数和数据包数可通过 cgroup 的 net_cls 或 net_prio 子系统间接获取,但更通用的是直接读取 /sys/fs/cgroup/{cpu,net_cls,net_prio}/.../tasks 关联进程,再汇总其网络 I/O(/proc/[pid]/net/dev)。
更推荐的方式是利用 cgroup v2 的 unified hierarchy 下的 io.stat 和 net_classid 配合 tc + clsact + bpf 实现流控级统计 —— 但对初学者较重。实际落地中,最轻量且稳定的做法是:
- 根据容器 ID(如 docker inspect -f '{{.State.Pid}}'
)获取主进程 PID - 读取 /proc/
/net/dev ,解析对应网卡(如 eth0)的接收/发送字节数、包数 - 定期采样做差值,即可得带宽(B/s)和请求速率(packets/s)
- 注意:需确保 Go 进程有权限读取目标 /proc 目录(通常需与容器同宿主机且非 rootless 模式)
2. 使用 netlink + netfilter 统计连接级请求数(HTTP/HTTPS 粗粒度)
若需统计“请求数”(如每秒 HTTP 请求),单纯看 packets 不够(一个请求可能跨多包,也可能多个请求复用 TCP 连接)。可行方案是:
立即学习“go语言免费学习笔记(深入)”;
- 用 Go 调用 netlink socket(通过 github.com/mdlayher/netlink)监听 NFLOG 或 NFQUEUE 日志(需提前配置 iptables -j NFLOG)
- 或使用 conntrack 工具输出(执行 conntrack -L | grep "dst=xxx")并解析 ESTABLISHED/RELATED 连接数变化,估算活跃连接趋势
- 更准但稍重:用 eBPF(如借助 github.com/cilium/ebpf)在 socket 层 hook sendto/recvfrom,统计应用层调用次数(需内核 5.8+、BTF 支持)
示例(简易 conntrack 统计):
cmd := exec.Command("conntrack", "-L", "--proto", "tcp")out, _ := cmd.Output()
lines := strings.Split(string(out), "\n")
for _, l := range lines {
if strings.Contains(l, "ESTABLISHED") && strings.Contains(l, "dst:172.18.0.3") { count++ }
}
3. 结合 prometheus 客户端暴露指标(生产就绪)
监控不是一次性的脚本,需要可聚合、可告警。建议用 prometheus/client_golang 暴露指标:
- 定义 GaugeVec:带 container_id 标签的 network_receive_bytes_total、network_transmit_packets_total
- 启动 HTTP handler:http.Handle("/metrics", promhttp.Handler())
- 定时(如每 5 秒)更新指标值(从 /proc/pid/net/dev 解析后 Set())
- Prometheus server 抓取该 endpoint,配合 rate() 函数计算带宽与 QPS
4. 注意事项与边界情况
容器网络监控容易踩坑,需特别注意:
- 容器使用 hostNetwork 模式时,/proc/pid/net/dev 显示的是宿主机网卡,无法隔离统计
- Pod 多容器共享 netns(如 init 容器退出后)可能导致 PID 变化,建议优先用 cgroup path(如 /sys/fs/cgroup/systemd/docker-xxx.scope)而非固定 PID
- IPv6 流量需额外解析 /proc/pid/net/snmp6;UDP 包不保证“请求”语义,统计请求数仅对七层协议有意义
- 高频率采样(
基本上就这些。不需要重写网络栈,也不必侵入容器镜像 —— 利用 Linux 自带的 /proc、cgroup、netlink 接口,搭配 Go 的系统调用能力,就能稳健实现容器级网络流量与请求统计。










