Volo 0.10.5 版本发布:HTTP 功能增强与稳定性提升
Volo 是 CloudWeGo 开源的高性能 RPC 框架,专注于提供简单易用、高性能的微服务开发体验。最新发布的 0.10.5 版本带来了多项 HTTP 功能增强和稳定性改进,进一步提升了开发者的使用体验。
HTTP 功能全面增强
本次更新中,HTTP 模块获得了多项重要改进。首先是对 multipart 表单的支持,开发者现在可以更方便地处理文件上传等复杂表单场景。同时新增了 cookie 功能支持,使得客户端能够更好地管理会话状态。
在性能优化方面,新版本避免了不必要的路由参数向量扩展,减少了内存分配开销。此外还改进了客户端 IP 获取机制,将客户端 IP 信息放入上下文扩展中,方便中间件获取和使用。
客户端与服务端改进
新版本对 HTTP 客户端和服务端都进行了多项优化。客户端方面,重构了 ClientBuilder、Target 和 CallOpt,使 API 更加清晰易用。服务端则新增了 TimeoutLayer 和 FailOnStatus 中间件,为请求处理提供了更多控制选项。
特别值得注意的是,新版本改进了 Body 类型的封装,统一包装了 hyper::body::Incoming,简化了请求体处理逻辑。同时引入了 hyper_util::server::auto,为服务端提供了更灵活的运行时选择。
代码生成优化
在代码生成方面,0.10.5 版本解决了多个问题。现在能够正确处理 IDL 服务方法参数中的关键字转义,避免与 Rust 关键字冲突。同时修复了本地 IDL 文件路径处理的问题,确保使用原始给定路径。
新增了将生成的 Pilota 文件拆分为多个文件的选项,以及将 gRPC 生成文件拆分为多个文件的功能,这有助于管理大型项目的代码结构。
错误处理与稳定性
新版本改进了错误处理机制,为 Error 类型实现了 source 方法,提供了更完整的错误链信息。同时默认不再记录服务器端的 broken pipe 错误,减少了日志噪音。
在连接管理方面,修复了 Thrift 模块中空闲连接等待的问题,确保在等待失败时正确清理等待队列。此外还确保了热重启的 sockdir 目录存在,提高了可靠性。
开发者体验提升
除了功能改进外,0.10.5 版本还包含多项开发者体验优化。新增了测试辅助工具的文档说明,重构了 RequestPartsExt 和 WebSocket 实现,使 API 更加一致和易用。
客户端方面减少了不必要的 Result 包装,简化了错误处理流程。同时新增了 json-utf8-lossy 特性,为 JSON 处理提供了更多灵活性。
总体而言,Volo 0.10.5 版本通过多项功能增强和稳定性改进,进一步巩固了其作为高性能 RPC 框架的地位,为开发者提供了更强大、更可靠的微服务开发工具。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C090
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00