Userver框架v2.9版本发布:日志增强与数据库驱动优化
Userver是一个现代化的C++异步服务框架,专注于高性能和易用性。它提供了构建微服务的完整工具链,包括HTTP服务器、数据库驱动、日志系统等基础设施。最新发布的v2.9版本带来了多项重要改进,特别是在日志系统和数据库驱动方面。
日志系统全面升级
v2.9版本对日志系统进行了重大改进,引入了fmt风格的格式化支持。开发者现在可以使用更直观的字符串插值语法:
LOG_INFO("用户 {} 从 {} 登录", user_id, ip_address);
这种格式化方式不仅代码更简洁,还支持lambda表达式,为复杂日志场景提供了更大的灵活性。同时,框架优化了日志输出格式,默认隐藏了thread_id和task_id等冗余信息,使得INFO及以上级别的日志更加简洁易读。
数据库驱动增强
PostgreSQL驱动新增了静态配置选项statement-log-mode,允许完全禁用SQL语句日志记录,这在生产环境中处理敏感数据时特别有用。同时,PostgreSQL缓存特性现在支持kOrderBy和DISTINCT ON表达式组合,使得开发者能够只存储数据切片,优化内存使用。
ClickHouse驱动现在全面支持double类型数据的查询操作,填补了之前的功能空白。YDB驱动则扩展了编译器兼容性,现在不仅支持Clang,也能在GCC下正常工作,不过仍需要C++20标准支持。
Redis组件在哨兵模式下新增了通过database_index配置项选择数据库索引的功能,为多数据库环境提供了更好的支持。此外,修复了独立Redis实例状态变更通知的问题,确保状态变化时能及时触发通知。
gRPC性能与安全改进
gRPC组件在本版本中获得了显著优化。大型请求和响应消息的日志记录速度大幅提升,同时建议使用[debug_redact = true]替代原有的[(userver.field).secret = true]标记敏感字段,提供了更符合gRPC原生特性的数据保护方式。
服务器和客户端的日志标签现在保持了一致性,便于跨服务日志追踪。中间件功能也得到了增强和完善,文档中新增了更多使用示例和最佳实践。
构建系统与工具链优化
构建系统方面,v2.9修复了多个兼容性问题:
- 解决了ClickHouse驱动中浮点数转义的编译问题
- 修复了curl 8.13和fmt 11的兼容性问题
- 新增了
USERVER_DEBUG_INFO_COMPRESSION构建选项,改进了调试信息压缩检测算法
项目还新增了Debian 12的依赖说明和构建指南,同时优化了Conan源文件的导出逻辑,只包含未被git忽略的文件。
开发者体验提升
v2.9版本引入了一个重要的新工具userver-create-service脚本,用于快速创建新服务项目。这标志着GitHub服务模板的正式弃用,新的脚本方式提供了更灵活和可定制化的服务创建流程。
测试套件也进行了现代化改造,移除了event_loop用法并采用asyncio-socket。堆栈使用监控器现在可以通过环境变量USERVER_GTEST_ENABLE_STACK_USAGE_MONITOR在测试中禁用,为特定测试场景提供了更多控制权。
文档与诊断增强
文档系统获得了多项补充和完善:
- 新增了代码生成概述、外部SQL/YQL文件使用和协程堆栈等专题文档
- 改进了Kafka指标系统并完善了相关文档
- 为Redis驱动的
Eval系列函数添加了详细文档和示例 - 动态配置的结构和解析器现在通过chaotic从模式自动生成
总体而言,Userver v2.9版本在功能丰富性、性能优化和开发者体验方面都取得了显著进步,特别是日志系统和数据库驱动的改进,使得这个C++微服务框架更加成熟和实用。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00