【亲测免费】 Laravel Valet 安装与使用指南
项目介绍
Laravel Valet 是专为 macOS 用户设计的一个轻量级开发环境。它利用 Nginx 作为后台服务器,并通过 DnsMasq 实现本地域名解析,使得所有 .test 域名自动指向你机器上安装的站点。Valet 设计初衷是简洁高效,内存占用低(大约 7MB),适合那些寻求快速启动、不需要完整虚拟环境如 Docker 或 Vagrant 的开发者。它支持多种 PHP 应用框架,不仅限于 Laravel,还包括 Bedrock、Craft 等。
项目快速启动
系统准备
确保你的 macOS 系统已安装 Homebrew 和没有其他服务(如 Apache、Nginx)绑定在本地的 80 端口上。
-
更新 Homebrew:
brew update -
安装 PHP:
brew install php -
配置Composer,确保
composer/vendor/bin目录添加到系统路径中。 -
安装 Laravel Valet 全局Composer包:
composer global require laravel/valet完成后,别忘了刷新 shell 使 Valet 命令生效(可能需要运行
source ~/.zshrc或者对应 shells 的配置文件)。 -
启动 Valet:
valet install此命令会设置好必要的服务,并启动 Valet。
创建第一个项目
新建一个 Laravel 项目来测试 Valet:
laravel new myProject
然后用 Valet 链接这个项目以便本地访问:
valet park
或者直接将特定目录关联到 Valet:
cd myProject
valet link
现在,通过浏览器访问 myProject.test 就能看到你的 Laravel 应用了。
应用案例和最佳实践
自动 HTTPS
Valet 支持通过 valet secure [domain] 快速启用 Let's Encrypt SSL 证书,保障本地开发环境中数据的安全传输。
多环境共享
通过配置全局 DNS 设置或使用 Valet 的分享命令 (valet share),你可以轻松地让你的应用对互联网可见,便于团队协作或演示。
环境变量与配置
利用 .env 文件管理你的应用环境变量,确保开发与生产环境的一致性。
典型生态项目
Laravel Valet 并非孤立存在,它完美融入了 Laravel 生态圈,同时也兼容其他PHP框架和CMS,例如:
- WordPress: 只需
valet link wordpress-site即可迅速搭建本地的WordPress开发环境。 - Drupal: 类似地,创建或迁移任何Drupal项目至 Valet 下,享受便捷开发体验。
- October CMS: 对于喜欢轻量级CMS的开发者,同样适用。
通过定制 Valet 的驱动程序,开发者可以轻松扩展对更多Web技术的支持,这使得 Valet 成为了一个高度灵活且强大的本地开发解决方案。
以上就是 Laravel Valet 的基本介绍、快速启动流程、应用场景和它在更广泛生态系统中的位置。希望这份指南能帮助您快速上手并充分利用这个高效的开发工具。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00