Fission v1.21.0 版本发布:云原生函数计算平台的重要更新
Fission 是一个开源的云原生函数计算平台,它允许开发者在 Kubernetes 集群上轻松部署和运行无服务器函数。作为 Kubernetes 原生的 FaaS(Function as a Service)解决方案,Fission 提供了快速冷启动、自动扩缩容和与 Kubernetes 生态系统的深度集成等特性。
近日,Fission 发布了 v1.21.0 版本,这个版本带来了多项重要改进和修复,进一步提升了平台的稳定性、安全性和用户体验。让我们深入了解一下这个版本的主要变化。
核心功能改进
环境配置增强
v1.21.0 版本对环境配置进行了重要改进。现在,当生成环境清单文件时,会自动包含 podSpec 配置,这为用户提供了更细粒度的控制能力。开发者可以更灵活地定义函数运行环境的资源需求、安全上下文等参数。
安全性提升
安全性是本版本的重点关注领域。项目团队采纳了 OpenSSF(Open Source Security Foundation)的最佳实践,包括:
- 增加了 OpenSSF Scorecard 检查,持续监控项目的安全状况
- 实施了更严格的安全策略和流程
- 更新了安全文档,明确了问题报告和处理流程
这些措施显著提升了 Fission 项目的整体安全性,为生产环境部署提供了更强的保障。
路径安全性修复
针对路径处理相关的潜在安全问题,v1.21.0 引入了路径安全修复措施。这些改进防止了可能的路径异常访问,确保了文件系统操作的安全性。
架构优化
依赖管理现代化
项目团队对依赖管理进行了全面升级:
- 更新了 Kubernetes 客户端库和相关依赖到最新版本
- 将 Go 版本升级到 1.23.4
- 使用 mholt/archives 替代了已弃用的 mholt/archiver 库
- 采用了最新的 controller-gen 和代码生成器工具
这些变更不仅带来了性能提升,还确保了与最新 Kubernetes 版本的兼容性。
镜像仓库迁移
从本版本开始,Fission 的容器镜像默认使用 GitHub Container Registry (GHCR) 作为存储库。这一变化带来了更快的镜像拉取速度和更高的可用性。
问题修复
v1.21.0 版本修复了多个关键问题:
- 修复了无效环境清单文件导致执行器组件中断的问题
- 解决了自定义运行时容器名称无效的问题
- 修正了在 Kubernetes 集群外下载部署包的问题
- 修复了 Helm chart 中重复的 Job 名称问题
- 优化了日志记录,现在只记录相关的 ConfigMap 和 Secret
开发者体验改进
Webhook 处理增强
项目改进了 webhook 处理机制,采用了自定义的 defaulter 和 validator 接口,替代了已弃用的默认实现。这一变化提供了更灵活、更强大的 webhook 处理能力。
命名空间隔离支持
在创建资源时,现在能够正确处理命名空间隔离,为多租户场景提供了更好的支持。
总结
Fission v1.21.0 是一个重要的里程碑版本,它在安全性、稳定性和功能性方面都做出了显著改进。对于现有用户,建议评估升级计划以获取这些改进带来的好处;对于新用户,这个版本提供了更可靠、更安全的入门选择。
作为云原生函数计算领域的重要参与者,Fission 通过这个版本进一步巩固了其在 Kubernetes 生态系统中的地位,为无服务器计算提供了强大而灵活的基础设施。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00