P2:大规模软件部署的利器
P2 是一套强大的工具集,旨在让大规模机器集群参与安全、灵活且可扩展的部署模式。这个项目源自Square,但设计为一个通用框架,对于密切关注Kubernetes的人来说,它可能会显得非常眼熟。
不只支持Docker
P2并非强依赖于Docker,而是支持内部的"Hoist artifacts"规范,这是一个.tar.gz文件,带有定义好的布局。几乎任何.tar.gz文件都可以作为Hoist artifact,只要它有一个bin/launch脚本或由进程管理器(我们使用Runit)执行的脚本目录。
这些工件是完全自包含的,大多数依赖项都已静态链接在内部,只有极少数例外。
通过资源限制的cgroup和不同的用户、不同的家目录执行工件,实现了极其轻量级的隔离。
从Kubernetes中汲取灵感
借鉴了Kubernetes的一些优秀工具,如Pods、Labels 和 Replication Controllers,我们也实现了它们!目前,我们的生产环境中已经支持与Kubernetes相似的pod-manifests、replication controllers以及rolling updates。
除此之外,我们正在积极开发pod-clusters,这是对我们版本的Kubernetes服务的改进。
更多亮点!
为了解决Square当前面临的问题,我们在设计之初就考虑到了以下特性:
- 参数文件支持:manifest中可以包含任意参数文件,以
CONFIG_PATH挂载供应用程序使用。 - 应用生命周期管理和健康检查:停止实例时先运行
bin/disable,启动时则运行bin/enable,并通过GET /_status监控应用程序状态。 - 丰富插件架构:例如,我们与Keywhiz的集成就是在
after_install钩子中实现的。hooks包提供了方便的Go库,用于编写可调度的钩子。 - 自我托管:P2可以用P2来部署,这得益于
p2-bootstrap二进制文件,它可以设置主机上的Consul代理和P2准备器。 - 部署授权:通过GPG签名的pod manifest来限制谁可以启动哪个应用,或者如果不喜欢GPG,你可以选择使用委托签名和信任的编排服务。
开始试用
要构建p2中的工具,只需运行rake build。bin目录包含管理部署的代理和可执行文件,而pkg目录则包含对这些可执行文件有用的独立库。
集成测试
运行rake integration会在你的计算机上启动一个Vagrant Centos7虚拟机,安装Consul和P2预处理器,然后启动一个应用程序。如果看到成功消息,你可以直接vagrant up已暂停的盒子,无需自己做任何设置即可查看参数。
确保已安装Vagrant 和VirtualBox ,以便rake integration正常工作。
依赖性
P2基于Square现有的部署工具,所有P2库都需要以下系统依赖:
许多P2二进制文件期望能够调用p2-exec二进制文件,理想情况下知道其完整路径。可以通过修改github.com/square/p2/pkg/p2exec.DefaultP2Exec变量并在go install -ldflags中使用-X标志来完成这项任务。
如果预处理程序参数选项process_result_reporter_config被设置,且找不到参数的提取器,预处理程序将会崩溃。我们提供了一个可能的实现p2-finish-env-extractor。
接下来的目标
尽管功能强大,但P2仍在不断进化。下一步计划添加Docker支持,最终帮助我们过渡到使用Docker(或等效的RunC实现)。此外,P2目前缺乏原生的工作负载准入和调度系统,所有的pod调度目前都是手动通过标签选择器或主机名完成。解决方案还在探讨之中。
许可证
P2遵循Apache 2.0 许可证。
如果你正在寻找一个能够适应大规模环境、具有高度灵活性并能与现有基础设施无缝协作的部署解决方案,那么P2无疑是值得尝试的。现在就开始你的P2之旅吧!
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00