Linux NUMA优化核心是绑定进程到本地节点:用numactl --hardware查看拓扑,--cpunodebind和--membind严格绑定CPU与内存,--preferred更稳妥;已运行进程可用taskset迁移CPU,但内存绑定仅对新分配页生效;服务级建议启用JVM UseNUMA或PostgreSQL pg_numa插件,系统级可禁用numa_balancing。

Linux系统在NUMA(Non-Uniform Memory Access)架构下,内存访问延迟因CPU与内存节点的物理距离而异。若进程频繁跨节点访问内存,会导致性能下降。优化核心在于让进程尽量使用本地NUMA节点的CPU和内存,即设置NUMA亲和性。
理解NUMA拓扑结构
运行 numactl --hardware 查看当前系统的NUMA节点数量、每个节点的CPU列表和内存大小。例如输出中 node 0 cpus: 0-7 表示节点0绑定CPU 0~7,node 0 size: 65536 MB 表示该节点有64GB本地内存。确认各节点是否均衡(CPU核数、内存容量、PCIe设备分布),不均衡时需针对性调整任务部署策略。
为进程绑定NUMA节点
使用 numactl 启动程序时指定策略:
- --cpunodebind=0:仅允许进程在节点0的CPU上运行
- --membind=0:只从节点0分配内存(严格绑定,内存不足会OOM)
- --preferred=0:优先从节点0分配内存,不足时才跨节点(更稳妥)
- --physcpubind=0,2,4,6:精确绑定到特定物理CPU核(绕过逻辑核/超线程干扰)
例如:numactl --cpunodebind=1 --membind=1 ./my_app 将应用完全限定在节点1执行和用内存。
对已运行进程动态调整
无法重启服务时,可用 taskset 和 numactl 配合调整:
- 用 taskset -cp 8-15 PID 将进程迁移到节点1的CPU(假设节点1含CPU 8~15)
- 用 numactl --interleave=all 可临时缓解内存不均(但非最优,仅作诊断或过渡)
- 注意:Linux内核不支持运行时修改内存节点绑定,--membind 类策略仅对新分配内存生效;已有内存页仍留在原节点
内核级与服务级配置建议
长期运行的服务(如数据库、Java应用)应嵌入NUMA感知启动逻辑:
- PostgreSQL:设置 shared_preload_libraries = 'pg_numa'(需插件支持),并在连接时指定 numa_node
- Java应用:添加JVM参数 -XX:+UseNUMA(HotSpot 8u191+ 支持),自动按节点分代堆内存
- 系统级:编辑 /etc/default/grub,在 GRUB_CMDLINE_LINUX 中加入 numa_balancing=disabled(关闭自动迁移,避免干扰手动绑定)后运行 update-grub && reboot










