快速启动前端开发:Fast ⚡️
在如今的前端开发领域,面对琳琅满目的技术和工具,着手新项目可能会让人感到有些手足无措。这就是 Fast 出现的原因——一个简单而强大的前端项目启动模板,让您能够迅速进入开发状态。

成为赞助者❤️
关于 Fast
Fast 是为了简化您的前端开发流程而生。它提供了一个高效的起始模板,无论您是构建全新项目还是迁移现有项目,都能快速上手,实现开箱即用的开发、构建、部署和重部署功能。
获取 Fast
通过克隆或下载 Fast 的 GitHub 仓库 来获取这个项目。
开始使用 Fast
打开项目文件夹,然后在喜欢的代码编辑器中安装必要的依赖库。
提示: Fast 使用 Yarn 进行快速、可靠且安全的依赖管理,但您可以选择使用 NPM。
如果您在 Windows 上工作?
请将 package.json 文件中的所有 $npm_execpath 替换为:
%npm_execpath%
安装依赖库
使用 Yarn:
yarn
或
yarn install
使用 NPM:
npm install
完成这些步骤后,您就可以开始创建项目了!
开发模式
要开始开发,运行以下命令:
使用 Yarn:
yarn start
或
yarn serve
使用 NPM:
npm run start
或
npm run serve
默认情况下,start 脚本将在端口 3000 启动服务器。如果希望更改端口,请在脚本中更新 3000 端口号。
serve 命令会启动服务器并自动在默认浏览器中打开 http://localhost:3000/。
构建生产环境版本
要准备上线,执行构建命令:
使用 Yarn:
yarn build
使用 NPM:
npm run build
部署项目
借助 Surge,部署项目易如反掌。您可以通过自定义域名或免费的 Surge 子域名(例如 your-awesome-project.surge.sh)来部署整个项目。
提示: 若要在自定义域上部署,参考 Surge 文档。
部署命令如下:
使用 Yarn:
yarn deploy
使用 NPM:
npm run deploy
只需按照命令行指示操作即可轻松部署!
重新部署项目
如果您对项目进行了修改,需要重新部署,可以运行以下命令:
使用 Yarn:
yarn redeploy your-awesome-project.surge.sh
或(对于自定义域名)
yarn redeploy your-custom-domain.com
使用 NPM:
npm run redeploy your-awesome-project.surge.sh
或(对于自定义域名)
npm run redeploy your-custom-domain.com
结束项目
当项目不再需要时,可以运行以下命令清理:
使用 Yarn:
yarn teardown your-awesome-project.surge.sh
或(对于自定义域名)
yarn teardown your-custom-domain.com
使用 NPM:
npm run teardown your-awesome-project.surge.sh
或(对于自定义域名)
npm run teardown your-custom-domain.com
自定义 404 页面
要添加自定义的 404 - Not Found 页面,只需在项目根目录创建一个名为 404.html 的文件即可。
核心技术
Fast 采用 Parcel、Surge、Normalize.css、Sass 和 Babel 这些先进技术。
Parcel
使用 Parcel 实现闪电般的打包速度。Parcel 利用工作者进程实现多核编译,并通过文件系统缓存支持重启后的快速重建。Parcel 内置了 Autoprefixer,一个 PostCSS 插件,可解析 CSS 并根据 Can I Use 数据自动为 CSS 规则添加厂商前缀。谷歌和推特都在使用 Autoprefixer。
Surge
Surge 提供快速简单的静态网站发布,仅需一条命令。通过 Surge,您可以快速部署、更新部署(重新部署)以及销毁前端项目,无论是使用默认还是自定义域名,都只需要几秒钟的时间。
Normalize.css
Normalize.css 让浏览器更一致地渲染所有元素,并符合现代标准。它只针对需要标准化的样式进行处理。
Sass
Fast 使用 Node-sass,这是一个为 Node.js 提供 LibSass 绑定的库,LibSass 是流行的样式表预处理器 Sass 的 C 版本。它使您能以极快的速度本地编译 .scss 文件到 CSS,并通过中间件自动处理。
Babel
Fast 使用 Babel 及其 @babel/preset-env 配置,该配置由 Parcel 默认触发,基于 package.json 中的 browserslist 设置。@babel/preset-env 允许您在不微管理所需语法转换(以及可选的浏览器 polyfill)的情况下,直接使用最新的 JavaScript。这既方便又减少了 JavaScript 包的大小!
发现问题?
感兴趣贡献?
阅读 贡献指南。
致谢
感谢所有 贡献者。
许可证
版权所有 2020年 Milber Ferreira
根据 MIT 许可证,未经明确书面许可,任何人不得复制、分发、修改本软件。除非遵守许可证条款。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
