探索未来软件部署的新纪元:Starter

Starter 是一款开源的命令行工具,它能从你的源代码中自动生成 Dockerfile 和 docker-compose.yml 文件,将你的应用带入容器化的世界。不仅如此,Starter 还能够生成 Cloud 66 的 service.yml 服务定义文件,用于定义在任何云上或自家服务器上运行 Docker 的生产环境配置。
关键特性
- 框架检测:识别如 Rails v5.0, PHP Laravel, Node.JS Express 等多种框架及其版本。
- 端口识别:确定需要设置的端口。
- 数据库检测:检测并配置你在
docker-compose中使用的数据库。 - Procfile 兼容性:自动生成基于 Procfile 的服务。
- 智能分析:分析你的应用以生成适当的
Dockerfile,docker-compose.yml,service.yml文件。 - API 集成:允许将 Starter 整合到你的产品中。
为什么选择 Starter?
-
你是 Docker 新手: Starter 是帮助你迈入 Docker 大门的理想工具。通过自动化流程,你可以专注于核心业务,而无需纠结于 Docker 学习曲线的基础部分。
-
你需要对现有应用进行容器化: Starter 可以分析你的现有应用,识别其运行的框架和版本,以及所使用的数据库和端口。然后,它会生成可直接运行的 Dockerfile, DockerCompose 或 service.yml 文件,加速构建过程,助你准备在生产环境中运行 Docker。
为何要容器化你的应用?
-
实现多租户架构:如果你的应用需要共享资源,或者单个应用的流量不足以支撑独立运行,那么 Starter 可以帮你把多个应用部署在同一栈中。
-
创建安全的沙箱环境:利用 Docker 提供的安全隔离功能,你可以将应用的部分组件放入容器,确保它们在一个安全的沙箱环境中运行。
快速启动
前往 Starter 最新发布页,下载适合你的平台的最新版本。将文件复制到 /usr/local/bin 并重命名为 starter,然后运行(chmod a+x /usr/local/bin/starter)。之后只需运行 starter update 即可自动更新。
$ cd /my/project
$ starter -g dockerfile,service,docker-compose
这段命令将在当前目录下分析项目,并生成 Dockerfile, docker-compose.yml 和 service.yml 文件。在必要时,系统会提示你输入信息。
Starter 支持 Procfile,为 Procfile 中的每一项生成 service.yml 中的服务。强烈建议使用 Procfile 来定义自己的服务命令,否则 Starter 只会检测到 web 服务。
若需针对不同目录执行 Starter,请使用 -p 选项:
$ starter -p /my/project
更多选项,请查看:
$ starter help
使用 Habitus 构建 Starter
如果你想贡献给 Starter 开发,你可以使用 Habitus 这款开源的 Docker 构建流工具。在仓库根目录下运行 Habitus,最新的编译版本将会在 ./artifacts/compiled 目录下生成。
habitus --keep-artifacts=true
为了提供一个隔离的开发环境,你可以使用 docker-compose 进行开发、测试和编译。
$ docker-compose run starter
在 Docker 容器内构建 Starter:
root@xx:/usr/local/go/src/github.com/cloud66/starter# go build
运行测试:
root@xx:/usr/local/go/src/github.com/cloud66/starter# go test
现在,你已经准备好开始为 Starter 贡献力量了!
结语
Starter 凭借其智能化的分析能力和便捷的集成方式,是提升开发者效率的得力助手。无论你是 Docker 新手,还是有经验的开发者,Starter 都能为你带来更加高效且稳定的软件部署体验。让我们一起探索这个全新的容器世界,让软件开发变得更加简单!
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00