最稳妥方式是用glob()匹配再逐个校验filemtime(),优先提取文件名时间戳;需处理符号链接、权限、opcache stat缓存、非递归限制;删除前检查可写性,cli执行并加锁防重入,避免与opcache混淆。

PHP用glob()找过期文件最稳妥
直接遍历目录再判断修改时间,容易漏掉符号链接或权限异常的文件;glob()能一次性按模式匹配 + 时间过滤,更可控。
关键不是“删”,是“精准识别哪些该删”。
- 用
glob($dir . '/*.cache', GLOB_NOSORT)避免隐式排序开销,尤其文件多时 - 每个匹配到的
$file必须用filemtime($file)判定,不能信stat()缓存(PHP 8.1+ 默认启用 opcache stat 缓存) - 注意
glob()不递归,子目录要手动处理,否则缓存堆积在cache/v2/这类路径下就失效了 - 如果缓存文件名含时间戳(如
user_123_20240501.cache),优先用正则提取时间比filemtime()更准——避免 NFS 挂载时 mtime 不一致
删除前必须加 is_writable() 和 unlink() 错误检查
线上环境常见问题不是逻辑错,而是权限突变或磁盘只读导致静默失败,日志里只剩空行。
-
is_writable($file)要在unlink()前调用,Windows 下unlink()对只读文件会直接报Warning: unlink(): Permission denied - 删完立刻用
file_exists($file)确认,防止某些文件系统(如 overlayfs)删了但ls还显示存在 - 批量删时别用
array_map('unlink', $files)—— 任一失败就中断,应改用foreach+@unlink()(加 @ 是为抑制 warning,实际要记录失败路径)
定时执行得避开 PHP-FPM 请求超时和内存限制
Web 触发清理脚本,500 个缓存文件可能卡住整个 FPM worker,用户请求全挂。
- 清理逻辑必须走 CLI 模式:
php /path/to/clean_cache.php,且脚本开头加if (PHP_SAPI !== 'cli') die('CLI only'); - 用
set_time_limit(0)和ini_set('memory_limit', '64M'),但别设太高——内存泄漏时反而拖垮服务器 - crontab 写成
0 */2 * * * cd /var/www && /usr/bin/php -f clean_cache.php >> /var/log/cache_clean.log 2>&1,注意指定绝对路径,别依赖PATH - 加锁防重入:
$lock = sys_get_temp_dir() . '/cache_clean.lock'; if (file_exists($lock)) exit; file_put_contents($lock, time()); register_shutdown_function(function() use ($lock) { @unlink($lock); });
注意 opcache_reset() 不清文件缓存,别混淆概念
有人把 OPcache 和自定义文件缓存混为一谈,opcache_reset() 只清 PHP 字节码,对 cache/ 目录下的 .json 或 .ser 文件完全没影响。
立即学习“PHP免费学习笔记(深入)”;
- 确认缓存类型:查代码里写缓存是否用了
file_put_contents($cache_file, serialize($data))—— 这才是要删的 - OPcache 配置项如
opcache.file_cache启用后会生成opcache/子目录,那是另一套机制,删它需要重启 PHP 或调opcache_reset() - 用
find /var/www/cache -name "*.cache" -mmin +60 -delete这种 shell 方式更轻量,但无法触发 PHP 层的清理回调(比如更新统计计数器),纯文件清理推荐这个
事情说清了就结束。真正难的不是写几行删文件的代码,是确认「过期」的定义是否和业务强一致——比如用户登录态缓存,过期时间可能取决于 Redis 中的 session TTL,而不是文件修改时间。











