Golang批量数据处理工具核心是可控并发+流式处理+错误隔离:分批读取防内存爆炸,Worker Pool控制并发,任务可追踪重试,失败隔离不中断流程,并具备基础可观测性。

用 Golang 写批量数据处理工具,核心是“可控并发 + 流式处理 + 错误隔离”,不是堆 goroutine,而是让每批数据可追踪、可重试、可监控。
分批读取,避免内存爆炸
别一次性把几 GB 文件全读进内存。用 bufio.Scanner 或按行/按块(如 10MB)读取,解析后塞进任务队列。CSV、JSONL、日志文件都适用:
- 大文件用
os.Open+bufio.NewReader逐行读,每 100 行打包成一个任务单元 - 数据库导出数据,用
sql.Rows配合rows.Scan迭代,每 500 条触发一次批量处理函数 - 避免用
ioutil.ReadFile或json.Unmarshal([]byte(...))直接加载整个文件
用 Worker Pool 控制并发粒度
启动固定数量的 worker(比如 4~16 个),从 channel 拿任务,处理完发回结果或错误。关键点:
- 任务 channel 设缓冲(如
make(chan Task, 100)),防生产者阻塞 - 每个 worker 用
defer捕获 panic,防止单个任务崩溃整个 goroutine - 结果统一收集到另一个 channel,主 goroutine 异步写入文件或上报状态
失败任务要可识别、可重试、可跳过
批量场景下,个别脏数据必然存在。别让一条报错中断全部流程:
立即学习“go语言免费学习笔记(深入)”;
- 每个任务结构体里带原始数据、行号、时间戳、错误字段(
Err error) - 处理函数返回
(result Result, err error),err 不为 nil 时记录到单独的failed.log - 支持命令行参数
--retry-failed,只重跑失败记录(可配合唯一 ID 或哈希做去重)
加基础可观测性,别等出问题才抓瞎
不用上 Prometheus,但至少要有:
- 实时打印进度:已处理 / 总数 / 失败数 / 当前 QPS(用
time.Tick每秒算一次) - 输出 JSON 格式统计到 stdout,方便管道给
jq或日志系统解析 - 关键路径加
log.WithFields(用logrus或zerolog),比如 “task_id=abc123 stage=transform error=invalid_email”
基本上就这些。Golang 做批量处理的优势不在语法炫技,而在 runtime 稳定、交叉编译方便、二进制无依赖——部署到离线环境或定时任务里,跑半年不重启也常见。










