探索未来云应用的基石:Radius - 简化云原生开发的平台
Radius是一个创新的云原生应用程序平台,旨在帮助开发者和平台工程师合作,按照组织的最佳实践,轻松构建和管理成本、运营和安全均得到优化的云原生应用。作为开源项目,Radius支持在私有云、Microsoft Azure和Amazon Web Services上部署应用,并计划添加更多云提供商的支持。此外,它还是Cloud Native Computing Foundation (CNCF) 的一个沙箱项目。
项目概述
随着云计算的发展,许多公司以更快的速度进行创新,无论是构建传统的二三层架构应用,还是复杂的微服务应用。Kubernetes等云原生技术使跨环境运行应用变得更加简单。然而,与此同时,应用的复杂性也在增加,多云环境下的管理变得日益困难。尽管Kubernetes起到了关键作用,但其自身的一些局限性(例如缺乏正式的应用定义、混合基础设施和应用概念以及复杂的操作)促使了许多组织在其之上构建抽象层。开发者也意识到,他们的应用需要超越Kubernetes,包括对API前端、键值存储、缓存和观测系统等依赖的支持。在这一背景下,企业IT部门还需要在保障快速应用创新的同时,执行日益增长的企业标准、合规性和安全要求。
Radius正是为解决这些贯穿于开发和运维过程中的挑战而设计的。它通过支持如Kubernetes这样的成熟技术,整合Terraform和Bicep等现有基础架构工具,以及与GitHub Actions等CI/CD系统集成,让应用团队能更高效地协作。无论从简单的Web+数据到复杂的微服务应用,如Microsoft的eShop参考应用,Radius都能提供全面的支持。
关键特性
- 团队协作: Radius 应用和环境让开发人员可以与运维团队共同定义和交付应用。
- 基础设施配方: 满足组织最佳实践和IT政策的可互换基础设施。
- 应用图谱: 显示服务和基础设施在应用中的相互联系。
- 云中立: 在开发、本地和云环境中提供一致的部署体验。
- 渐进式采用: 将Radius无缝融入现有的工作流程和基础设施即代码模板目录。
发布状态
这是Radius的早期版本,供社区学习和实验。请告诉我们您的想法,发现错误时,请打开问题报告或请求新功能。目前,Radius尚未准备好用于生产负载。
开始使用
- 遵循入门指南安装并试用Radius。
- 访问Tutorials和User Guides深入了解Radius,并开始将你的应用"Radify"(Radius化)。
获取帮助
- 有问题?访问我们的Discord服务器,我们会尽快回复您。
- 发现问题?请参阅我们的问题指南了解如何提交bug报告。
- 有建议?同样请参考问题指南了解如何提出功能请求。
加入社区
我们欢迎您的贡献和建议!参与问题讨论、在Discord服务器聊天,或参加每月的社区通话都是容易的参与方式。
联系我们
请访问Discord服务器联系我们,我们会尽快回应。
社区通话
每个月,我们都会举办一次社区电话会议,展示新功能,回顾即将来临的里程碑,并进行问答环节。所有人都欢迎参加!
手机访问我们的社区会议页面获取最新日期和会议链接。
贡献给Radius
查看贡献了解更多关于如何向Radius贡献的信息。要创建Radius食谱,请访问如何编写Radius食谱。要为Radius文档做贡献,请访问Radius文档贡献。
仓库
- Radius: 主仓库,包含所有Radius代码和文档。
- Docs: 包含Radius文档源码的仓库。
- Samples: 快速启动、参考应用和教程的源代码。
- Recipes: 包含Radius环境常见配方模板的仓库。
- Website: Radius网站源码仓库。
- Bicep: 用于部署云资源类型的Bicep DSL源码仓库。
- AWS Bicep Types: 提供Bicep对AWS资源类型支持的工具。
安全性
请参考我们的报告安全漏洞指南。
行为准则
请参阅我们的Radius社区行为准则。
一起探索Radius,开启更高效、更智能的云原生应用之旅吧!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00