PHP用Redis批量写入多个独立列表必须用pipeline或Lua脚本,因循环调用lpush会产生多次网络往返,导致性能骤降;pipeline可合并命令降低RTT,Lua则保证多列表操作原子性。

PHP 用 Redis 缓存列表时,lpush/rpush 单次只能推一个或多个元素,但“批量写入多个独立列表”不能靠单个命令完成——得靠管道(pipeline)或 Lua 脚本,否则性能会断崖式下跌。
为什么不能直接用 lpush 循环写多个列表?
每次调用 lpush 都是一次网络往返,100 个列表就要发 100 次请求。实测在局域网延迟 0.2ms 的情况下,耗时轻松破 20ms;上云后更可能到 50–100ms+。Redis 本身支持原子性批量操作,但 PHPRedis 客户端默认不启用管道,得手动开启。
- 循环调用
$redis->lpush($key, $val)是最常见也最慢的写法 -
lpush和rpush本身支持一次推多个值(如$redis->lpush('list:a', 'a', 'b', 'c')),但这只适用于「往同一个列表塞多个元素」 - 若要「往 list:a、list:b、list:c 各自 push 一条数据」,必须用其他机制
用 pipeline 实现多列表批量写入(推荐)
pipeline 把多个命令攒成一批发出去,服务端顺序执行并一次性返回结果,网络开销降到接近 1 次 RTT。PHPRedis 的 pipeline() 方法返回的是当前实例的代理对象,所有后续命令不会立即执行,直到调用 exec()。
$redis = new Redis();
$redis->connect('127.0.0.1', 6379);
// 开启 pipeline
$pipeline = $redis->pipeline();
// 批量写入不同列表
$pipeline->lpush('list:users:1001', json_encode(['name' => 'Alice']));
$pipeline->lpush('list:users:1002', json_encode(['name' => 'Bob']));
$pipeline->lpush('list:users:1003', json_encode(['name' => 'Charlie']));
// 一次性发出全部命令
$results = $pipeline->exec(); // 返回数组,每个元素对应一条命令的返回值
// $results[0] 是第一个 lpush 的返回值(新长度),依此类推
- 务必检查
$results是否为数组且长度匹配,避免静默失败 - pipeline 不是事务,不保证原子性:某条命令出错(比如 key 类型不对),其余仍会执行
- 不要在 pipeline 中混用读命令(如
lrange),某些 Redis 版本会报错或行为异常
用 Lua 脚本保证多列表操作的原子性
如果「同时更新多个列表」必须全成功或全失败(比如用户积分变动要同步写入主列表 + 归档列表 + 统计列表),就得用 Lua。Redis 保证脚本执行期间无并发干扰,且 eval 是原子的。
立即学习“PHP免费学习笔记(深入)”;
// Lua 脚本内容(保存为字符串或外部文件)
$script = <<<'LUA'
for i, key in ipairs(KEYS) do
redis.call("LPUSH", key, ARGV[i])
end
return 1
LUA;
// 调用
$result = $redis->eval($script, ['list:a', 'list:b', 'list:c'], ['val1', 'val2', 'val3']);
-
KEYS和ARGV必须显式传入,不能硬编码 key 名,否则无法复用 - 脚本里不能用随机函数(
math.random)、时间函数(os.time)等非纯函数,否则集群模式下会报错 - Lua 脚本有最大执行时间限制(默认 5 秒),复杂逻辑建议拆分或改用 pipeline
别忽略序列化和类型一致性
PHPRedis 对列表元素不做自动序列化,lpush 传数组会触发 __toString() 或抛错。必须自己处理:
- 统一用
json_encode()写入,json_decode()读取(注意第二个参数设为true得到数组) - 避免混用序列化方式:同一列表里既有
serialize()又有json_encode(),会导致json_decode()失败且无提示 - 如果值是简单字符串(如 ID、状态码),可跳过序列化,但需确保业务层不误写数组进去
批量操作看似只是“多写几行代码”,但网络、原子性、序列化这三关没对齐,缓存就容易变成故障放大器——尤其在高并发写场景下,小疏漏会直接拖垮接口 P99 延迟。











