P2:大规模软件部署的利器
P2 是一套强大的工具集,旨在让大规模机器集群参与安全、灵活且可扩展的部署模式。这个项目源自Square,但设计为一个通用框架,对于密切关注Kubernetes的人来说,它可能会显得非常眼熟。
不只支持Docker
P2并非强依赖于Docker,而是支持内部的"Hoist artifacts"规范,这是一个.tar.gz文件,带有定义好的布局。几乎任何.tar.gz文件都可以作为Hoist artifact,只要它有一个bin/launch脚本或由进程管理器(我们使用Runit)执行的脚本目录。
这些工件是完全自包含的,大多数依赖项都已静态链接在内部,只有极少数例外。
通过资源限制的cgroup和不同的用户、不同的家目录执行工件,实现了极其轻量级的隔离。
从Kubernetes中汲取灵感
借鉴了Kubernetes的一些优秀工具,如Pods、Labels 和 Replication Controllers,我们也实现了它们!目前,我们的生产环境中已经支持与Kubernetes相似的pod-manifests、replication controllers以及rolling updates。
除此之外,我们正在积极开发pod-clusters,这是对我们版本的Kubernetes服务的改进。
更多亮点!
为了解决Square当前面临的问题,我们在设计之初就考虑到了以下特性:
- 参数文件支持:manifest中可以包含任意参数文件,以
CONFIG_PATH挂载供应用程序使用。 - 应用生命周期管理和健康检查:停止实例时先运行
bin/disable,启动时则运行bin/enable,并通过GET /_status监控应用程序状态。 - 丰富插件架构:例如,我们与Keywhiz的集成就是在
after_install钩子中实现的。hooks包提供了方便的Go库,用于编写可调度的钩子。 - 自我托管:P2可以用P2来部署,这得益于
p2-bootstrap二进制文件,它可以设置主机上的Consul代理和P2准备器。 - 部署授权:通过GPG签名的pod manifest来限制谁可以启动哪个应用,或者如果不喜欢GPG,你可以选择使用委托签名和信任的编排服务。
开始试用
要构建p2中的工具,只需运行rake build。bin目录包含管理部署的代理和可执行文件,而pkg目录则包含对这些可执行文件有用的独立库。
集成测试
运行rake integration会在你的计算机上启动一个Vagrant Centos7虚拟机,安装Consul和P2预处理器,然后启动一个应用程序。如果看到成功消息,你可以直接vagrant up已暂停的盒子,无需自己做任何设置即可查看参数。
确保已安装Vagrant 和VirtualBox ,以便rake integration正常工作。
依赖性
P2基于Square现有的部署工具,所有P2库都需要以下系统依赖:
许多P2二进制文件期望能够调用p2-exec二进制文件,理想情况下知道其完整路径。可以通过修改github.com/square/p2/pkg/p2exec.DefaultP2Exec变量并在go install -ldflags中使用-X标志来完成这项任务。
如果预处理程序参数选项process_result_reporter_config被设置,且找不到参数的提取器,预处理程序将会崩溃。我们提供了一个可能的实现p2-finish-env-extractor。
接下来的目标
尽管功能强大,但P2仍在不断进化。下一步计划添加Docker支持,最终帮助我们过渡到使用Docker(或等效的RunC实现)。此外,P2目前缺乏原生的工作负载准入和调度系统,所有的pod调度目前都是手动通过标签选择器或主机名完成。解决方案还在探讨之中。
许可证
P2遵循Apache 2.0 许可证。
如果你正在寻找一个能够适应大规模环境、具有高度灵活性并能与现有基础设施无缝协作的部署解决方案,那么P2无疑是值得尝试的。现在就开始你的P2之旅吧!
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5HunyuanVideo-1.5作为一款轻量级视频生成模型,仅需83亿参数即可提供顶级画质,大幅降低使用门槛。该模型在消费级显卡上运行流畅,让每位开发者和创作者都能轻松使用。本代码库提供生成创意视频所需的实现方案与工具集。00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00