Elastic Rally 2.12.0 版本发布:性能测试工具的重要更新
Elastic Rally 是 Elastic 官方推出的开源性能基准测试工具,专门用于对 Elasticsearch 集群进行全面的性能测试和基准测试。它能够模拟真实场景下的搜索、索引等操作,帮助开发者评估 Elasticsearch 集群的性能表现,识别瓶颈,并进行优化。
核心升级与改进
Python 3.8 支持终止
本次 2.12.0 版本最显著的变化是移除了对 Python 3.8 的支持。这一决定反映了 Python 生态系统的自然演进,也意味着 Rally 将能够更充分地利用 Python 新版本带来的性能改进和语言特性。开发者需要确保运行环境至少升级到 Python 3.9 或更高版本。
Thespian 框架升级至 4.0.1
Rally 内部使用的分布式执行框架 Thespian 已升级到 4.0.1 版本。这一升级带来了更好的稳定性和性能表现,特别是在大规模分布式测试场景下。新版本修复了多个底层问题,提升了任务调度的可靠性。
指标索引模板处理优化
在之前的版本中,Rally 会覆盖已有的 rally-metrics 索引模板。2.12.0 版本改变了这一行为,默认会保留预先存在的索引模板。这一改进特别适合那些已经自定义了指标收集方式的用户,避免了意外的配置覆盖。
功能增强
服务器支持创建测试轨道
新版本扩展了 create-track 命令的功能,使其能够更好地支持服务器环境。这一改进使得在云原生和服务器架构下创建定制化的测试轨道变得更加便捷。
并行 JSON 日志记录
2.12.0 版本默认启用了并行 JSON 日志记录功能。这一特性为日志分析提供了更结构化的数据格式,便于后续的日志收集、分析和可视化处理。JSON 格式的日志更容易与现有的日志管理系统集成。
Docker 环境支持增强
新版本改进了对 Docker 环境的支持,特别是 esrallyd 服务现在可以原生运行在 Docker 容器中。这一改进简化了容器化部署的流程,使得在 Kubernetes 或其他容器编排系统中运行 Rally 变得更加容易。
错误修复与稳定性提升
磁盘使用统计功能改进
修复了磁盘使用统计功能只能接受单一输入的问题,现在支持传入列表形式的输入参数,提高了功能的灵活性和实用性。
日志转发优化
减少了通过 Thespian 框架转发的日志量,降低了网络开销,提升了分布式测试场景下的性能表现。
重试机制增强
为请求重试机制添加了读取超时设置,避免了某些情况下因网络问题导致的长时间等待,提高了测试的可靠性。
开发者工具改进
JSON 数据差异可视化工具
新版本引入了专门用于漂亮打印 JSON 对象及其差异的工具。这一功能极大方便了开发者在调试和测试结果分析时比较不同 JSON 数据结构。
表格驱动测试装饰器
新增了一个装饰器工具,简化了创建表格驱动单元测试的过程。这一改进提升了测试代码的可读性和可维护性,使得编写参数化测试变得更加直观。
依赖项更新
- 升级 google-auth 至 2.38.0 版本
- 升级 Jinja2 模板引擎至 3.1.5 版本
- 修复了资源读取函数的弃用警告
总结
Elastic Rally 2.12.0 版本带来了多项重要改进,特别是在分布式测试稳定性、日志记录和容器化支持方面。移除对 Python 3.8 的支持虽然是一个突破性变化,但为未来利用更现代的 Python 特性铺平了道路。新版本的工具链改进和错误修复使得 Rally 作为 Elasticsearch 性能测试工具更加成熟可靠。对于需要进行大规模 Elasticsearch 集群性能评估的团队,升级到 2.12.0 版本将获得更好的测试体验和更准确的结果。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00