关闭GRO导致吞吐下降是预期行为:因每个帧单独处理,CPU负载上升、cache miss增多、softirq激增;MTU无法补偿GRO关闭开销;需通过ethtool -S验证rx_gro_packets是否增长,并排查RSS、TCP时间戳等协同条件。

为什么 ethtool -K gro off 会导致吞吐下降
关闭 GRO(Generic Receive Offload)后吞吐下降,不是异常,而是预期行为——尤其在高吞吐、低延迟敏感场景下容易被误判为“性能退化”。GRO 的本质是在内核收包路径中将多个 TCP 分段(同一流、连续序列号)合并成一个大 skb 再递交给协议栈,减少软中断次数和上层处理开销。关掉它,意味着每个网络帧都单独走一遍 tcp_v4_rcv → tcp_prequeue → tcp_data_queue 流程,CPU 负载上升、cache miss 增多、上下文切换变频繁。
常见错误现象包括:
-
top中softirq占用明显升高,尤其是NET_RX -
perf stat -e net:netif_receive_skb显示每秒触发次数翻倍甚至更高 - 应用层
recv()调用频次激增,但单次读取字节数变小(strace -e trace=recvfrom可验证)
GRO 关闭后是否必须调大 MTU 来补偿
不需要,也不能靠调大 MTU 补偿 GRO 关闭带来的开销。MTU 控制的是三层最大传输单元,影响的是分片和路径 MTU 发现;而 GRO 是四层接收端的软件聚合机制,二者作用域和触发时机完全不同。强行调大 MTU(比如设成 9000)反而可能引发:
- 路径中某跳设备不支持巨帧,导致 ICMP “Fragmentation Needed” 或静默丢包
- UDP 场景下
sendto()失败并返回EMSGSIZE - TCP 初始窗口仍受限于对端通告的 MSS(由基础 MTU 推导),不会自动变大
验证方法:ip link show dev eth0 | grep mtu 查当前 MTU;再用 ping -M do -s 8972 192.168.1.1(假设 MTU=9000)测试是否真能通——多数生产环境链路实际只支持 1500。
如何确认 GRO 真正生效且与 MTU 协同正常
不能只看 ethtool -k eth0 输出里的 generic-receive-offload: on,还要验证内核是否实际执行了聚合。关键检查点:
- 运行
ethtool -S eth0 | grep -i "gro",关注rx_gro_packets和rx_gro_bytes是否随流量增长(非零才说明 GRO 在工作) - 抓包对比:
tcpdump -i eth0 'tcp and port 80' -w gro-on.pcap(GRO 开启时),再关 GRO 抓一次;用wireshark打开,观察相同 HTTP 流在 GRO 关闭时是否出现大量 1448 字节(MSS=1460-12)的小包,而开启时是单个 64KB 左右的“逻辑大包”(注意:tcpdump 抓到的是 GRO 后的 skb,所以开启时看到的是聚合后的大帧) - 检查驱动是否支持 GRO:
ethtool -i eth0中driver版本是否 ≥ 对应网卡要求(如 ixgbe ≥ 4.3.22,igb ≥ 5.6.0);老驱动即使显示支持,也可能在特定队列数或 RSS 配置下禁用 GRO
真正影响 GRO 效果的隐蔽因素
很多情况下 GRO 显示开启但 rx_gro_packets 始终为 0,问题往往不在命令本身,而在更底层的协同条件未满足:
- RSS(Receive Side Scaling)队列数 ≠ CPU 核心数,导致 skb 被分散到不同 CPU 缓存行,GRO 合并失败(内核要求同一流的包落在同一 RX 队列)
- 开启了
lro(Large Receive Offload)硬件卸载,而某些驱动(如 older mlx4)会禁止同时启用 LRO 和 GRO - TCP 时间戳选项(
net.ipv4.tcp_timestamps = 1)被关闭,导致 GRO 无法校验序列连续性(部分内核版本强制依赖时间戳做流判断) - 网卡 ring buffer 太小(
ethtool -g eth0),丢包或重排序后 GRO 主动放弃聚合
这些点比单纯开关 GRO 更难排查,建议先用 ethtool -S 确认计数器变化,再逐项排除驱动、RSS、内核参数组合。GRO 不是万能加速器,它的收益高度依赖流量模式——短连接、随机端口、高重传率的场景下,开 GRO 反而增加延迟抖动。










