net.Listen 默认 SO_BACKLOG=128 易致连接队列饱和,引发 Connection refused;应调大 net.core.somaxconn 并显式设置 TCPListener backlog。

为什么 net.Listen 默认配置会成为吞吐瓶颈
Go 的 net.Listen 在 Linux 上默认使用 SO_BACKLOG 值为 128(内核限制下实际可能更低),当并发连接突增时,未被 Accept 的连接会堆积在队列里,超限后客户端收到 Connection refused 或长时间 SYN 超时。这不是 Go 本身慢,而是队列满导致连接被丢弃。
- 用
ss -lnt观察Recv-Q是否持续非零,若接近net.core.somaxconn值,说明队列已饱和 - 启动服务前显式增大监听队列:
ln, err := net.Listen("tcp", ":8080") if err != nil { log.Fatal(err) } // 设置系统级 backlog(需 os.IsPermission 检查) if tcpLn, ok := ln.(*net.TCPListener); ok { if err := tcpLn.SetDeadline(time.Now().Add(10 * time.Second)); err == nil { // 实际生效依赖于 syscall.SetsockoptInt32 和 SO_BACKLOG // 更可靠方式:启动前执行 sysctl -w net.core.somaxconn=4096 } } - 更稳妥做法是提前调大系统参数:
sysctl -w net.core.somaxconn=4096,并确保/proc/sys/net/core/somaxconn已生效
如何避免 http.Server 的默认 ReadTimeout 拖垮长连接吞吐
HTTP 服务器启用 ReadTimeout 后,每个连接都会启动一个定时器。高并发下大量定时器触发、GC 扫描 timer heap,反而增加延迟和 CPU 开销——尤其在连接复用(keep-alive)场景下,本该复用的连接被无谓中断。
- 若业务协议可控(如内部 RPC),直接禁用:
srv := &http.Server{ Addr: ":8080", Handler: myHandler, ReadTimeout: 0, // 关键:禁用读超时 WriteTimeout: 0, IdleTimeout: 30 * time.Second, // 仅控制空闲连接生命周期 } - 若必须做读保护,改用连接粒度的上下文控制,而非全局定时器:
http.TimeoutHandler是 handler 层面的包装,不干扰底层连接复用 - 注意:禁用
ReadTimeout后,需确保应用层能主动检测粘包、恶意不发请求的客户端,否则可能泄露 goroutine
net.Conn 复用与缓冲区大小对吞吐的实际影响
每次 conn.Read() 都是一次系统调用,小缓冲区(如默认 4KB)会导致高频 syscall,尤其在处理大 payload 或流式数据时。而过大的缓冲区又浪费内存且延迟响应。
- 对高吞吐 TCP 服务,建议将
bufio.NewReaderSize(conn, 64*1024)显式设为 64KB,平衡 syscall 频率与内存占用 - 避免在循环中反复创建
bufio.Reader:它本身轻量,但频繁 alloc/free 会抬高 GC 压力 - 若使用
http.Server,它内部已封装缓冲逻辑,无需手动套bufio;但自定义协议(如 WebSocket 底层帧解析、Redis 协议)必须自己管理缓冲区 - 实测显示:从 4KB 改为 64KB 缓冲,在千兆网卡 + 10K 并发下,CPU 用户态占比下降约 12%,TPS 提升 18%~22%
为什么 runtime.GOMAXPROCS 设太高反而降低网络吞吐
很多人以为把 GOMAXPROCS 设成 CPU 核数 × 2 就能提升并发能力,但在典型网络服务中,过多的 P 会导致调度器频繁迁移 goroutine、M 在不同 OS 线程间切换开销上升,尤其当 epoll/kqueue 事件分发不均时,部分 P 长时间空转,另一些 P 积压大量就绪 goroutine。
来自Adobe官方的Flash动画优化指南教程,包括以下的内容: • 如何节省内存 • 如何最大程度减小 CPU 使用量 • 如何提高 ActionScript 3.0 性能 • 加快呈现速度 • 优化网络交互 • 使用音频和视频 • 优化 SQL 数据库性能 • 基准测试和部署应用程序 …&hel
立即学习“go语言免费学习笔记(深入)”;
- 建议值:保持
GOMAXPROCS等于物理 CPU 核数(numa_node内核数),除非明确有计算密集型子任务混跑 - 用
go tool trace观察Proc状态:若频繁出现 “idle” 或 “spinning”,说明 P 过多 - 真正影响吞吐的是 I/O 多路复用效率和 goroutine 处理逻辑的常驻时间,不是 P 的数量。一个阻塞在
conn.Read()的 goroutine 不消耗 P,只等待 fd 就绪
网络吞吐的瓶颈往往不在代码写法,而在操作系统参数、缓冲区策略和连接生命周期管理这些“看不见”的环节。调优时优先看 ss -i、go tool pprof -http 和 /proc/net/softnet_stat,而不是急着加 goroutine。










