Volo 0.10.5 版本发布:HTTP 功能增强与稳定性提升
Volo 是 CloudWeGo 开源的高性能 RPC 框架,专注于提供简单易用、高性能的微服务开发体验。最新发布的 0.10.5 版本带来了多项 HTTP 功能增强和稳定性改进,进一步提升了开发者的使用体验。
HTTP 功能全面增强
本次更新中,HTTP 模块获得了多项重要改进。首先是对 multipart 表单的支持,开发者现在可以更方便地处理文件上传等复杂表单场景。同时新增了 cookie 功能支持,使得客户端能够更好地管理会话状态。
在性能优化方面,新版本避免了不必要的路由参数向量扩展,减少了内存分配开销。此外还改进了客户端 IP 获取机制,将客户端 IP 信息放入上下文扩展中,方便中间件获取和使用。
客户端与服务端改进
新版本对 HTTP 客户端和服务端都进行了多项优化。客户端方面,重构了 ClientBuilder、Target 和 CallOpt,使 API 更加清晰易用。服务端则新增了 TimeoutLayer 和 FailOnStatus 中间件,为请求处理提供了更多控制选项。
特别值得注意的是,新版本改进了 Body 类型的封装,统一包装了 hyper::body::Incoming,简化了请求体处理逻辑。同时引入了 hyper_util::server::auto,为服务端提供了更灵活的运行时选择。
代码生成优化
在代码生成方面,0.10.5 版本解决了多个问题。现在能够正确处理 IDL 服务方法参数中的关键字转义,避免与 Rust 关键字冲突。同时修复了本地 IDL 文件路径处理的问题,确保使用原始给定路径。
新增了将生成的 Pilota 文件拆分为多个文件的选项,以及将 gRPC 生成文件拆分为多个文件的功能,这有助于管理大型项目的代码结构。
错误处理与稳定性
新版本改进了错误处理机制,为 Error 类型实现了 source 方法,提供了更完整的错误链信息。同时默认不再记录服务器端的 broken pipe 错误,减少了日志噪音。
在连接管理方面,修复了 Thrift 模块中空闲连接等待的问题,确保在等待失败时正确清理等待队列。此外还确保了热重启的 sockdir 目录存在,提高了可靠性。
开发者体验提升
除了功能改进外,0.10.5 版本还包含多项开发者体验优化。新增了测试辅助工具的文档说明,重构了 RequestPartsExt 和 WebSocket 实现,使 API 更加一致和易用。
客户端方面减少了不必要的 Result 包装,简化了错误处理流程。同时新增了 json-utf8-lossy 特性,为 JSON 处理提供了更多灵活性。
总体而言,Volo 0.10.5 版本通过多项功能增强和稳定性改进,进一步巩固了其作为高性能 RPC 框架的地位,为开发者提供了更强大、更可靠的微服务开发工具。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00