Tarantool 2.11.6版本发布:关键修复与性能优化
项目简介
Tarantool是一款高性能的内存数据库和应用服务器,兼具NoSQL数据库的灵活性和关系型数据库的强大功能。它采用Lua作为内置脚本语言,支持ACID事务处理,并提供了丰富的扩展能力。Tarantool特别适合需要低延迟、高吞吐量的应用场景,如实时分析、消息队列和缓存系统等。
版本亮点
2.11.6版本作为2.11.x系列的稳定版本,带来了多项重要修复和性能优化,特别是在索引处理、事务管理和复制机制等方面进行了重要改进。这个版本解决了32个已知问题,显著提升了系统的稳定性和可靠性。
关键修复与改进
索引与数据类型处理
本次版本修复了一个长期存在的严重问题:当使用double类型作为vinyl索引字段时,可能导致索引损坏。问题根源在于double类型的比较方式——它总是使用C语言的double类型进行比较,即使存储的是整数值。对于超过2^53的大整数,这种比较方式会失去精度,导致18446744073709551615和18446744073709551614这样的数值被误认为相等。
更严重的是,即使后来将索引类型从double改为number或scalar,索引仍然可能保持损坏状态。因此,强烈建议用户重建所有曾经使用过double类型的vinyl索引,且必须通过先删除再创建的方式完成,简单的alter操作无法解决问题。
事务与存储引擎优化
在Memtx引擎方面,修复了MVCC(多版本并发控制)模式下的一些关键问题。特别是解决了当尝试中止已提交的非Memtx事务时可能发生的崩溃问题,以及在高频执行空结果index:get()操作时可能导致服务中断的问题。
对于Vinyl引擎,本次更新解决了多个重要问题:
- 修复了同一事务中多次更新的删除元组可能无法从二级索引中清除的问题
- 优化了在大量写入负载下加入新副本时的主节点性能
- 修复了多键索引中元组可能消失的问题
- 改进了WAL写入错误情况下的元组缓存失效机制
复制与高可用性
在复制机制方面,2.11.6版本对RAFT协议进行了重要改进:
- 现在RAFT请求会使用0(而非本地)的GROUP_ID发送
- 修复了RAFT状态未在META_JOIN阶段发送可能导致脑裂的问题
- 禁止匿名副本参与选举或成为领导者,确保集群稳定性
LuaJIT引擎升级
本次版本包含了从上游LuaJIT主干移植的多项重要修复,包括:
- 修复了
getmetatable()对io对象的编译问题 - 解决了从记录的IR_NOP中读取脏数据的问题
- 修复了跨
table.clear()或新键插入的融合优化问题 - 在aarch64架构上默认禁用FMA优化以避免浮点运算错误
- 解决了使用upvalues时可能出现的无限循环问题
其他改进
在日志系统方面,修复了JSON日志记录器会截断超过1024字节消息的问题。网络通信方面,解决了net.box客户端在优雅关闭协议中可能出现的计数器下溢问题。此外,新版本还新增了对Ubuntu 24.04(Noble)操作系统的支持。
升级建议
对于正在使用2.11.x系列版本的用户,建议尽快升级到2.11.6版本以获取这些重要的修复和改进。特别是那些使用了vinyl索引且曾经定义过double类型字段的用户,必须按照前文所述的方法重建相关索引。
升级时只需执行标准的box.schema.upgrade()过程即可解锁2.x系列的所有新功能。由于2.11.x系列在二进制数据布局、客户端-服务器协议和复制协议方面与1.10.x保持向后兼容,升级过程相对平滑。
总的来说,2.11.6版本通过解决多个关键问题,显著提升了Tarantool的稳定性和可靠性,特别是在索引处理、事务管理和复制机制等核心功能方面。这些改进使得Tarantool在高性能数据库和应用服务器领域继续保持领先地位。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00