Voyager - 拓展Laravel的管理界面之选
项目介绍
Voyager 是一个基于Vue.js和Bootstrap构建的Laravel后台管理系统。它被称为“缺失的Laravel管理员”,为开发者提供了一个功能齐全的BREAD系统(浏览、阅读、编辑、添加、删除)。Voyager支持Laravel 8及以上版本,并且有一个配套的官方网站与文档站点,以及视频教程供用户学习。如果你偏好Livewire和TailwindCSS,可以考虑其姊妹项目Genesis。
项目快速启动
步骤一:安装依赖包
首先,在创建新的Laravel应用程序后,通过Composer引入Voyager包:
composer require tcg/voyager
对于Laravel 10,请使用以下命令(直至正式版发布):
composer require tcg/voyager dev-1.6-l10
步骤二:配置数据库信息
确保创建一个新的数据库,并在.env文件中设置数据库凭证:
DB_HOST=localhost
DB_DATABASE=your_database_name
DB_USERNAME=your_username
DB_PASSWORD=your_password
APP_URL=http://localhost:8000
步骤三:运行安装程序
通过以下命令安装Voyager。可选择是否安装带有示例数据的版本:
- 不带示例数据:
php artisan voyager:install - 带示例数据:
php artisan voyager:install --with-dummy
最后,启动本地服务器并访问后台:
php artisan serve
然后在浏览器中打开 http://localhost:8000/admin。
创建管理员用户
如果使用了示例数据,系统已自动创建管理员账号,否则,需手动创建:
php artisan voyager:admin your@email.com --create
将引导您输入用户名和密码。
应用案例和最佳实践
Voyager适用于快速搭建项目后台界面,尤其是那些需要快速实现数据管理的Web应用。最佳实践包括利用其内置的BREAD功能来管理模型数据,定制化仪表板以满足特定业务需求,并利用其丰富的插件体系来扩展功能,如自定义菜单、数据表视图定制等。
典型生态项目
虽然Voyager本身已经是一个完整的后台解决方案,但开发者社区围绕它构建了一系列辅助工具和插件,例如定制主题、安全增强组件、以及与前端框架如Vue或React更深度集成的实例。推荐查看其官方文档或GitHub页面上的贡献者插件部分,以便发现这些生态中的宝藏。
以上步骤和建议构成了一份基础的快速上手指南,旨在帮助开发者迅速掌握和运用Voyager于他们的Laravel项目之中。深入探索Voyager的功能和定制选项,将进一步提升您的应用开发效率。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00