Fission v1.21.0 版本发布:云原生函数计算平台的重要更新
Fission 是一个开源的云原生函数计算平台,它允许开发者在 Kubernetes 集群上轻松部署和运行无服务器函数。作为 Kubernetes 原生的 FaaS(Function as a Service)解决方案,Fission 提供了快速冷启动、自动扩缩容和与 Kubernetes 生态系统的深度集成等特性。
近日,Fission 发布了 v1.21.0 版本,这个版本带来了多项重要改进和修复,进一步提升了平台的稳定性、安全性和用户体验。让我们深入了解一下这个版本的主要变化。
核心功能改进
环境配置增强
v1.21.0 版本对环境配置进行了重要改进。现在,当生成环境清单文件时,会自动包含 podSpec 配置,这为用户提供了更细粒度的控制能力。开发者可以更灵活地定义函数运行环境的资源需求、安全上下文等参数。
安全性提升
安全性是本版本的重点关注领域。项目团队采纳了 OpenSSF(Open Source Security Foundation)的最佳实践,包括:
- 增加了 OpenSSF Scorecard 检查,持续监控项目的安全状况
- 实施了更严格的安全策略和流程
- 更新了安全文档,明确了问题报告和处理流程
这些措施显著提升了 Fission 项目的整体安全性,为生产环境部署提供了更强的保障。
路径安全性修复
针对路径处理相关的潜在安全问题,v1.21.0 引入了路径安全修复措施。这些改进防止了可能的路径异常访问,确保了文件系统操作的安全性。
架构优化
依赖管理现代化
项目团队对依赖管理进行了全面升级:
- 更新了 Kubernetes 客户端库和相关依赖到最新版本
- 将 Go 版本升级到 1.23.4
- 使用 mholt/archives 替代了已弃用的 mholt/archiver 库
- 采用了最新的 controller-gen 和代码生成器工具
这些变更不仅带来了性能提升,还确保了与最新 Kubernetes 版本的兼容性。
镜像仓库迁移
从本版本开始,Fission 的容器镜像默认使用 GitHub Container Registry (GHCR) 作为存储库。这一变化带来了更快的镜像拉取速度和更高的可用性。
问题修复
v1.21.0 版本修复了多个关键问题:
- 修复了无效环境清单文件导致执行器组件中断的问题
- 解决了自定义运行时容器名称无效的问题
- 修正了在 Kubernetes 集群外下载部署包的问题
- 修复了 Helm chart 中重复的 Job 名称问题
- 优化了日志记录,现在只记录相关的 ConfigMap 和 Secret
开发者体验改进
Webhook 处理增强
项目改进了 webhook 处理机制,采用了自定义的 defaulter 和 validator 接口,替代了已弃用的默认实现。这一变化提供了更灵活、更强大的 webhook 处理能力。
命名空间隔离支持
在创建资源时,现在能够正确处理命名空间隔离,为多租户场景提供了更好的支持。
总结
Fission v1.21.0 是一个重要的里程碑版本,它在安全性、稳定性和功能性方面都做出了显著改进。对于现有用户,建议评估升级计划以获取这些改进带来的好处;对于新用户,这个版本提供了更可靠、更安全的入门选择。
作为云原生函数计算领域的重要参与者,Fission 通过这个版本进一步巩固了其在 Kubernetes 生态系统中的地位,为无服务器计算提供了强大而灵活的基础设施。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00