Elastic Rally 2.12.0 版本发布:性能测试工具的重要更新
Elastic Rally 是 Elastic 官方推出的开源性能基准测试工具,专门用于对 Elasticsearch 集群进行全面的性能测试和基准测试。它能够模拟真实场景下的搜索、索引等操作,帮助开发者评估 Elasticsearch 集群的性能表现,识别瓶颈,并进行优化。
核心升级与改进
Python 3.8 支持终止
本次 2.12.0 版本最显著的变化是移除了对 Python 3.8 的支持。这一决定反映了 Python 生态系统的自然演进,也意味着 Rally 将能够更充分地利用 Python 新版本带来的性能改进和语言特性。开发者需要确保运行环境至少升级到 Python 3.9 或更高版本。
Thespian 框架升级至 4.0.1
Rally 内部使用的分布式执行框架 Thespian 已升级到 4.0.1 版本。这一升级带来了更好的稳定性和性能表现,特别是在大规模分布式测试场景下。新版本修复了多个底层问题,提升了任务调度的可靠性。
指标索引模板处理优化
在之前的版本中,Rally 会覆盖已有的 rally-metrics 索引模板。2.12.0 版本改变了这一行为,默认会保留预先存在的索引模板。这一改进特别适合那些已经自定义了指标收集方式的用户,避免了意外的配置覆盖。
功能增强
服务器支持创建测试轨道
新版本扩展了 create-track 命令的功能,使其能够更好地支持服务器环境。这一改进使得在云原生和服务器架构下创建定制化的测试轨道变得更加便捷。
并行 JSON 日志记录
2.12.0 版本默认启用了并行 JSON 日志记录功能。这一特性为日志分析提供了更结构化的数据格式,便于后续的日志收集、分析和可视化处理。JSON 格式的日志更容易与现有的日志管理系统集成。
Docker 环境支持增强
新版本改进了对 Docker 环境的支持,特别是 esrallyd 服务现在可以原生运行在 Docker 容器中。这一改进简化了容器化部署的流程,使得在 Kubernetes 或其他容器编排系统中运行 Rally 变得更加容易。
错误修复与稳定性提升
磁盘使用统计功能改进
修复了磁盘使用统计功能只能接受单一输入的问题,现在支持传入列表形式的输入参数,提高了功能的灵活性和实用性。
日志转发优化
减少了通过 Thespian 框架转发的日志量,降低了网络开销,提升了分布式测试场景下的性能表现。
重试机制增强
为请求重试机制添加了读取超时设置,避免了某些情况下因网络问题导致的长时间等待,提高了测试的可靠性。
开发者工具改进
JSON 数据差异可视化工具
新版本引入了专门用于漂亮打印 JSON 对象及其差异的工具。这一功能极大方便了开发者在调试和测试结果分析时比较不同 JSON 数据结构。
表格驱动测试装饰器
新增了一个装饰器工具,简化了创建表格驱动单元测试的过程。这一改进提升了测试代码的可读性和可维护性,使得编写参数化测试变得更加直观。
依赖项更新
- 升级 google-auth 至 2.38.0 版本
- 升级 Jinja2 模板引擎至 3.1.5 版本
- 修复了资源读取函数的弃用警告
总结
Elastic Rally 2.12.0 版本带来了多项重要改进,特别是在分布式测试稳定性、日志记录和容器化支持方面。移除对 Python 3.8 的支持虽然是一个突破性变化,但为未来利用更现代的 Python 特性铺平了道路。新版本的工具链改进和错误修复使得 Rally 作为 Elasticsearch 性能测试工具更加成熟可靠。对于需要进行大规模 Elasticsearch 集群性能评估的团队,升级到 2.12.0 版本将获得更好的测试体验和更准确的结果。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C030
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00