本文介绍如何在 Go 中高效地将结构体切片序列化为换行分隔的 JSON 字符串,重点解决因频繁字符串拼接(+=)引发的内存分配失控问题,并推荐使用 bytes.Buffer 实现零拷贝式累积写入。
本文介绍如何在 go 中高效地将结构体切片序列化为换行分隔的 json 字符串,重点解决因频繁字符串拼接(`+=`)引发的内存分配失控问题,并推荐使用 `bytes.buffer` 实现零拷贝式累积写入。
在 Go 中,将一组结构体逐个序列化为 JSON 并以换行符分隔(即 NDJSON / JSON Lines 格式),是日志导出、流式 API 响应或大数据批处理中的常见需求。但若采用原始字符串拼接方式(如 buffer += string(body) + "\n"),会因 Go 字符串不可变特性,每次拼接都触发新内存分配与整块内容复制——当 all_data 规模达数千条以上时,内存占用呈平方级增长,极易触发 OOM。
根本原因在于:string(body) 将 []byte 转为字符串虽无额外数据拷贝,但后续 += 操作会不断创建更大底层数组并复制全部历史内容;而 bytes.Buffer 内部基于可扩容的 []byte 切片,通过预分配和追加(Write, WriteString)实现接近 O(1) 的均摊写入开销。
✅ 推荐方案:使用 bytes.Buffer 累积写入
以下为优化后的完整示例:
package main
import (
"bytes"
"encoding/json"
"fmt"
)
type User struct {
ID int `json:"id"`
Name string `json:"name"`
}
func main() {
allData := []User{
{ID: 1, Name: "Alice"},
{ID: 2, Name: "Bob"},
{ID: 3, Name: "Charlie"},
}
var buf bytes.Buffer // 零初始化,内部切片初始容量通常为 0 或 64,自动扩容
for _, record := range allData {
body, err := json.Marshal(record)
if err != nil {
panic(fmt.Sprintf("failed to marshal record %+v: %v", record, err))
}
buf.Write(body) // 直接写入 []byte,无转换开销
buf.WriteByte('\n') // 更轻量:WriteByte 比 WriteString("\n") 少一次 slice 创建
}
result := buf.String() // 仅在最终需要字符串时调用,触发一次拷贝
fmt.Print(result)
}? 关键优化点说明:
- 避免 string(body) + "\n":消除不必要的字符串转换与重复内存分配;
- 优先 buf.WriteByte('\n'):比 buf.WriteString("\n") 更高效(后者需构造长度为 1 的 []byte);
- 错误处理不可省略:json.Marshal 可能失败(如含不可序列化字段),生产代码中必须检查 err;
- 如需极致性能且最终输出为 []byte:直接使用 buf.Bytes() 替代 buf.String(),避免最后一次拷贝(注意:Bytes() 返回的切片与 buffer 共享底层数组,后续写入可能影响其内容);
- 预分配容量(可选):若预估总大小,可 buf.Grow(n) 减少扩容次数,例如 buf.Grow(len(allData) * 256)。
? 总结:字符串拼接是 Go 初学者常见的性能陷阱。面对批量序列化场景,始终优先选用 bytes.Buffer 或 strings.Builder(后者专为字符串构建优化,Go 1.10+)。二者均通过可增长字节切片实现高效累积,将时间复杂度从 O(n²) 降至 O(n),显著提升吞吐量并稳定内存占用。










