批量插入数据是提升SQL写入性能的关键,核心在于减少网络往返、降低事务开销、避免逐行提交;推荐使用多值INSERT、LOAD DATA INFILE/COPY、事务合并提交及临时禁用索引约束等组合策略。

批量插入数据是提升SQL写入性能的关键,核心在于减少网络往返、降低事务开销、避免逐行提交。单条INSERT效率低,尤其在万级以上数据场景中,必须改用批量方式。
使用INSERT ... VALUES多值语法
这是最基础也最通用的批量写入方法,适用于MySQL、PostgreSQL、SQL Server等主流数据库。一条语句插入多行,显著减少解析和执行次数。
示例(MySQL):
INSERT INTO users (name, age, city) VALUES('张三', 25, '北京'),
('李四', 30, '上海'),
('王五', 28, '广州');
建议每批控制在500–1000行以内,过大会导致SQL长度超限或内存压力增大;不同数据库有最大参数限制(如MySQL的max_allowed_packet)。
利用LOAD DATA INFILE(MySQL)或COPY(PostgreSQL)
这是文件级批量导入,绕过SQL解析层,速度最快,适合从CSV/TSV等文本文件导入大量数据。
网趣购物系统静态版支持网站一键静态生成,采用动态进度条模式生成静态,生成过程更加清晰明确,商品管理上增加淘宝数据包导入功能,与淘宝数据同步更新!采用领先的AJAX+XML相融技术,速度更快更高效!系统进行了大量的实用性更新,如优化核心算法、增加商品图片批量上传、谷歌地图浏览插入等,静态版独特的生成算法技术使静态生成过程可随意掌控,从而可以大大减轻服务器的负担,结合多种强大的SEO优化方式于一体,使
- MySQL:用
LOAD DATA INFILE,要求文件在数据库服务器本地(或启用local_infile) - PostgreSQL:用
COPY table FROM 'file.csv',支持标准输入和程序化调用 - 注意字段分隔符、NULL处理、编码一致性(如UTF8)、权限配置
事务合并 + 批量提交
即使使用多值INSERT,若每条都自动提交,I/O和日志开销仍很大。应显式开启事务,分批提交。
- 每1000~5000条数据包裹在一个事务中(视数据大小和系统负载调整)
- 避免长事务阻塞其他操作,也防止回滚段过大
- 应用层伪代码示意:BEGIN; INSERT ...; INSERT ...; COMMIT;
禁用索引与约束(仅限导入阶段)
大批量写入前临时关闭非必要索引、外键检查、唯一性校验,可大幅提升速度,导入完成后再重建。
- MySQL:
SET FOREIGN_KEY_CHECKS=0;、ALTER TABLE t DISABLE KEYS; - PostgreSQL:
SET CONSTRAINTS ALL DEFERRED;或暂时删除索引 - 操作后务必验证数据一致性,并重新启用/重建
基本上就这些。选哪种方式取决于数据库类型、数据来源、是否允许停写、以及运维权限。实际中常组合使用——比如先用LOAD DATA快速灌入临时表,再用INSERT … SELECT做清洗和关联写入主表。









