bonding与teamd是Linux中两种主流网卡绑定机制:bonding为内核级传统方案,配置依赖sysfs和ifconfig/ip;teamd为用户态现代框架,支持JSON配置、LACP动态协商及热重载。

如果您在Linux系统中需要提升网络带宽或实现链路冗余,多网卡绑定是常见方案。teamd(teaming)与bonding(bond)是两种主流的内核级网卡聚合机制,二者在配置方式、功能支持和稳定性上存在差异。以下是针对这两种机制的具体配置方法:
一、使用bonding模块配置网卡绑定
bonding是Linux内核内置的传统绑定机制,通过加载bonding模块并配置虚拟bond接口实现主备或负载均衡模式。其依赖sysfs接口与ifconfig/ip命令协同管理,适用于所有主流发行版且兼容性极强。
1、确认内核已启用bonding模块:执行 modprobe bonding && lsmod | grep bonding,若无输出则需检查内核配置或安装kernel-modules-extra包。
2、创建bond0接口配置文件:编辑/etc/sysconfig/network-scripts/ifcfg-bond0(RHEL/CentOS)或/etc/network/interfaces(Debian/Ubuntu),写入IP地址、子网掩码及bonding模式参数。
3、为物理网卡eth0和eth1添加从属配置:在对应ifcfg-eth0/ifcfg-eth1中设置MASTER=bond0和SLAVE=yes,并注释掉原有IP配置。
4、指定bonding模式与监控参数:向/etc/modprobe.d/bonding.conf写入alias bond0 bonding options bond0 mode=active-backup miimon=100,其中mode可选0~6,miimon定义链路检测间隔(毫秒)。
5、重启网络服务:systemctl restart network(RHEL系)或systemctl restart networking(Debian系),随后用ip link show bond0验证状态。
二、使用teamd服务配置网卡绑定
teamd是基于userspace的现代绑定框架,支持更灵活的端口选择算法(如LACP动态协商)、JSON格式配置及实时热重载,适合需要精细控制流量分发策略的场景。
1、安装teamd工具包:yum install teamd(RHEL/CentOS)或apt install teamd(Debian/Ubuntu)。
2、创建team接口配置文件:在/etc/sysconfig/network-scripts/ifcfg-team0中定义TEAM_CONFIG字段,内容为JSON格式,例如{"runner": {"name": "lacp"}, "link_watch": {"name": "ethtool"}}。
3、配置成员端口:为eth0和eth1分别创建ifcfg-eth0和ifcfg-eth1,设置TEAM_MASTER=team0及DEVICETYPE=TeamPort,禁用其独立IP配置。
4、启动teamd服务并启用开机自启:systemctl enable --now teamd@team0,该命令将自动读取配置并创建team0接口。
5、查看绑定状态:teamdctl team0 state显示当前runner类型、端口活跃状态及LACP协商结果;ip -d link show team0确认接口工作模式。
三、验证绑定接口连通性与故障切换
无论采用bonding或teamd,均需验证绑定后的实际行为是否符合预期,包括流量分担效果、单链路断开时的自动恢复能力以及ARP响应一致性。
1、执行持续ping测试:ping -I bond0 192.168.1.1 -c 100(bonding)或ping -I team0 192.168.1.1 -c 100(teamd),观察丢包率。
2、模拟单网卡故障:拔掉eth0网线后,运行cat /proc/net/bonding/bond0(bonding)或teamdctl team0 state(teamd),确认备用端口已转为active状态。
3、检查ARP表更新:在相邻交换机上执行show arp,确认bond0/team0的MAC地址未因端口切换而变化,避免三层通信中断。
4、监测流量分布:使用watch -n1 'cat /proc/net/dev | grep -E "(bond0|team0|eth0|eth1)"'观察各接口RX/TX字节数增长是否均衡(取决于所选模式)。
四、常见绑定模式功能对照说明
bonding与teamd均支持多种链路聚合逻辑,但具体实现细节与命名存在差异,需按实际需求匹配对应模式以确保硬件兼容性与预期行为一致。
1、active-backup(bonding mode=1 / teamd runner=activebackup):仅一个端口转发流量,其余处于热备状态,适用于不支持LACP的交换机环境。
2、balance-xor(bonding mode=2 / teamd runner=xor):根据源/目的MAC、IP或端口哈希选择出口端口,要求交换机配置静态聚合组,不协商LACP。
3、802.3ad(bonding mode=4 / teamd runner=lacp):基于IEEE 802.3ad标准进行动态协商,需交换机开启LACP且配置相同聚合ID,提供负载均衡与故障检测。
4、loadbalance(teamd runner=loadbalance):支持自定义哈希函数与端口权重分配,可结合skb_hash或flow-based策略实现细粒度流量调度,bonding无直接等效模式。
5、broadcast(bonding mode=3):所有端口同时发送相同数据帧,仅用于特定高可靠性广播场景,teamd不提供原生支持。










