0

0

Laravel的视图缓存是如何工作的,何时应该使用? (view:cache命令)

穿越時空

穿越時空

发布时间:2026-01-23 12:51:14

|

737人浏览过

|

来源于php中文网

原创

php artisan view:cache 缓存的是 Blade 模板编译后的 PHP 文件(非 HTML 渲染结果),存于 storage/framework/views/,替代运行时编译,仅适用于生产环境且视图稳定场景。

laravel的视图缓存是如何工作的,何时应该使用? (view:cache命令)

view:cache 命令到底缓存了什么?

php artisan view:cache 并不缓存渲染结果(比如 HTML 字符串),而是把 Blade 模板编译成原生 PHP 文件,并将这些编译后的文件统一写入 storage/framework/views/ 目录下。Laravel 运行时不再解析 .blade.php,而是直接 include 这些已编译的 PHP 文件。

这意味着:缓存的是「模板编译产物」,不是「渲染输出」;它替代的是 Blade 编译阶段,不是视图渲染阶段。

  • 每次修改 Blade 文件后,必须重新运行 view:cache 才能生效(开发中通常禁用)
  • 编译后的文件名是哈希值(如 abc123.php),内容包含带 echoforeach 等原生 PHP 的逻辑
  • 该命令只影响 resources/views/ 下的 Blade 模板,不处理 @include 外部路径或运行时动态视图名

什么时候该用 view:cache?

仅在生产环境、且确认视图结构稳定、无需热更新时启用。它带来的收益非常具体:减少每次请求中对 Blade 编译器的调用,避免重复扫描、词法分析和 PHP 代码生成。

  • 适合静态布局多、组件复用率高、视图文件长期不变的项目(如后台管理系统、企业官网)
  • 不适合 A/B 测试、用户定制主题、运行时切换视图路径等场景(因为编译结果固定,无法动态响应)
  • CI/CD 部署流程中建议放在最后一步:构建镜像 → 运行 view:cache → 启动 FPM
  • 若使用 OPcache,还需确保 opcache.enable_cli=1(否则 view:cache 生成的文件不会被 OPcache 加速)

为什么本地开发一般关掉它?

因为 view:cache 会绕过 Laravel 默认的「按需编译 + 文件时间戳比对」机制。开发中你改一行 Blade,期望立刻看到效果——但缓存存在时,除非手动清空 storage/framework/views/ 或重跑命令,否则旧编译文件一直被加载。

LLaMA
LLaMA

Meta公司发布的下一代开源大型语言模型

下载
  • Laravel 默认在 config/view.php 中根据 APP_DEBUG 自动控制是否启用编译缓存:调试开启时,强制跳过缓存,每次都重新编译
  • 强行在本地运行 view:cache 后又忘记清理,会出现「改了模板但页面没变」的典型问题,排查时容易误判为浏览器缓存或路由问题
  • 某些 IDE(如 PHPStorm)的 Blade 实时语法检查依赖原始 .blade.php 文件,编译后文件无意义

它和 OPcache、Redis 缓存视图输出有关系吗?

完全无关。这是三个不同层级的缓存:

  • view:cache → 编译层缓存(PHP 源码生成)
  • OPcache → 字节码缓存(PHP 编译后的 opcode)
  • Redis / file 缓存 View::make(...)->render() 结果 → 输出层缓存(HTML 字符串)

三者可共存,但不能互相替代。例如:即使开了 view:cache,如果视图里有数据库查询,每次请求仍会执行;而输出缓存才能真正跳过整个渲染流程。

最容易被忽略的一点:如果你在控制器里手动调用 view()->exists('xxx')view()->file('/path/to/file.blade.php'),这些路径不会被 view:cache 覆盖——它们压根不走标准视图查找逻辑,也就不会命中编译缓存。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
laravel组件介绍
laravel组件介绍

laravel 提供了丰富的组件,包括身份验证、模板引擎、缓存、命令行工具、数据库交互、对象关系映射器、事件处理、文件操作、电子邮件发送、队列管理和数据验证。想了解更多laravel的相关内容,可以阅读本专题下面的文章。

340

2024.04.09

laravel中间件介绍
laravel中间件介绍

laravel 中间件分为五种类型:全局、路由、组、终止和自定。想了解更多laravel中间件的相关内容,可以阅读本专题下面的文章。

293

2024.04.09

laravel使用的设计模式有哪些
laravel使用的设计模式有哪些

laravel使用的设计模式有:1、单例模式;2、工厂方法模式;3、建造者模式;4、适配器模式;5、装饰器模式;6、策略模式;7、观察者模式。想了解更多laravel的相关内容,可以阅读本专题下面的文章。

773

2024.04.09

thinkphp和laravel哪个简单
thinkphp和laravel哪个简单

对于初学者来说,laravel 的入门门槛较低,更易上手,原因包括:1. 更简单的安装和配置;2. 丰富的文档和社区支持;3. 简洁易懂的语法和 api;4. 平缓的学习曲线。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

385

2024.04.10

laravel入门教程
laravel入门教程

本专题整合了laravel入门教程,想了解更多详细内容,请阅读专题下面的文章。

141

2025.08.05

laravel实战教程
laravel实战教程

本专题整合了laravel实战教程,阅读专题下面的文章了解更多详细内容。

85

2025.08.05

laravel面试题
laravel面试题

本专题整合了laravel面试题相关内容,阅读专题下面的文章了解更多详细内容。

80

2025.08.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

502

2026.03.04

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PHP课程
PHP课程

共137课时 | 13.4万人学习

JavaScript ES5基础线上课程教学
JavaScript ES5基础线上课程教学

共6课时 | 11.3万人学习

PHP新手语法线上课程教学
PHP新手语法线上课程教学

共13课时 | 1.0万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号