100gb mysql数据迁移耗时取决于工具与配置而非单纯数据量:xtrabackup最快(约50分钟),mydumper/myloader次之(1.5–2.5小时),load data约40–70分钟,mysqldump最慢(3–12小时)。

迁移耗时根本不由“数据量”单独决定
直接说结论:100GB 数据可能 2 小时迁完,也可能拖 3 天——关键不在大小,而在你选的路径是否匹配当前环境。比如用 mysqldump 导出再导入 5000 万行 InnoDB 表,没调参的话很可能卡在单线程写入和频繁事务提交上;而用 xtrabackup 物理拷贝,同一份数据在千兆内网下通常 20–40 分钟就能完成全量复制。
四种主流方式的真实耗时对比(基于 TB 级实测经验)
以下时间范围来自 2025 年底多个生产环境(源/目标均为 16C32G + NVMe SSD,千兆内网):
-
mysqldump+mysql导入:100GB 数据约 6–12 小时(默认参数下),加--single-transaction --skip-triggers --disable-keys -e可压到 3–5 小时,但依然受网络延迟和目标端 IO 写入瓶颈制约 -
mydumper/myloader(16 线程):100GB 数据约 1.5–2.5 小时;注意myloader需提前在目标库执行SET unique_checks=0; SET foreign_key_checks=0;,否则索引重建会拖慢 3 倍以上 -
LOAD DATA INFILE(配合SELECT ... INTO OUTFILE):100GB CSV 文件导入约 40–70 分钟;但要求源/目标在同一台机器或挂载共享存储,且secure_file_priv必须放开对应路径 -
xtrabackup全量热备+恢复:100GB 数据备份约 12–18 分钟,传输(rsync)约 25 分钟,--prepare+--copy-back约 8–15 分钟,总计约 50 分钟内可完成——这是目前最快、最稳的整库迁移路径
真正拖慢迁移的三个隐藏因素
很多人盯着“导出速度”看,却忽略了更致命的三件事:
-
目标库写入阻塞:未关闭
innodb_flush_log_at_trx_commit=1或sync_binlog=1时,每条 INSERT 都刷盘,IO 直接打满;建议迁移期临时设为2和0,完成后立即改回 -
索引重建开销被低估:
myloader或mysql导入时若未禁用唯一性检查,它会在每批数据后重建二级索引——1 亿行表加 3 个索引,重建时间可能超过数据导入本身 -
网络传输不是瓶颈,而是“伪瓶颈”:用
mysqldump | ssh mysql看似省事,但 TCP 缓冲区默认太小(net_buffer_length=16K),大字段会导致大量小包重传;必须显式加--net-buffer-length=1048576和--max-allowed-packet=512M
怎么预估自己这次要多久?动手前必做三件事
别猜,直接测。哪怕只抽 1% 数据跑一次最小闭环:
- 用
SELECT COUNT(*) FROM table_name;和SELECT data_length + index_length FROM information_schema.tables确认真实体积(有些表data_length是 0,因为用了压缩或分区) - 在业务低峰期,对一张典型大表(比如 500 万行)跑一次
mydumper -t 4 -B db -T table+myloader -t 4 -d /tmp/dump,记下耗时,再按比例外推(但乘 1.8 系数,因为并发越高,锁争抢越明显) - 用
pt-table-checksum在源/目标间抽样比对 10 个分片,看 checksum 是否一致——很多“迁完了却丢数据”的问题,其实发生在最后 1% 的 binlog 追平阶段,而非主迁移过程
真正麻烦的从来不是“怎么快”,而是“怎么不丢、不错、不卡住应用”。物理备份快,但要求停机窗口或严格校验;逻辑迁移可控,但参数一漏就慢十倍。动手前多花 20 分钟测一组真实数据,比事后重跑三天强得多。










