SpiceAI 项目升级 DataFusion 47 版本的技术实践
SpiceAI 作为基于 DataFusion 查询引擎构建的数据分析平台,近期完成了从 DataFusion 46 到 47 版本的重要升级。这一技术升级不仅带来了显著的性能提升,还解决了多个关键性问题,为平台用户提供了更高效、更稳定的数据分析体验。
性能优化亮点
DataFusion 47 版本在查询性能方面实现了多项突破性改进:
-
聚合函数加速:针对 first_value、last_value 以及 Duration 类型的 min/max 函数,实现了专门的 GroupsAccumulator 优化实现,避免了不必要的排序和计算过程。
-
TopK 操作提速:通过引入早期退出优化策略,TopK 相关操作的执行速度提升了高达 10 倍。
-
排序优化:通过重用行转换器和消除冗余克隆操作,显著提升了排序性能;同时优化了排序保留合并流(sort-preserving merge streams)的处理效率。
-
逻辑运算改进:对 AND/OR 逻辑运算实现了短路求值优化,减少了不必要的计算开销。
-
元数据获取优化:改进了顺序获取元数据导致的高延迟问题,提升了整体查询响应速度。
-
类型比较加速:特别优化了整数与字符串比较操作的执行效率。
兼容性与问题修复
此次升级还解决了多个影响系统稳定性和功能完整性的问题:
-
外部排序与聚合:修复了外部排序和聚合操作中的若干边界条件问题。
-
窗口函数:完善了对复杂窗口函数表达式的支持,特别是嵌套窗口表达式场景。
-
NULL 值处理:改进了对 NULL 值的处理逻辑,确保在各种运算中得到预期结果。
-
类型转换:修复了数组和二进制操作中的类型转换问题。
-
复杂查询支持:增强了对复杂连接操作的支持能力。
-
SQL 兼容性:修正了子查询、别名和 UNION BY NAME 等 SQL 特性的解析问题。
底层 Arrow 格式升级
作为 DataFusion 的基础,Arrow 格式也同步升级到了 55 版本,带来了多项重要改进:
-
压缩效率提升:优化了 Parquet 格式的 gzip 压缩算法实现。
-
大文件支持:增强了对 4GB 以上大文件的处理能力。
-
元数据读取优化:实现了更高效的 Parquet 元数据读取机制,支持范围请求。
-
时间类型处理:改进了 INT96 时间戳和时区的兼容性支持。
-
错误处理:提供了更清晰的 CSV 解析错误信息,便于问题诊断。
技术实现细节
升级过程中,SpiceAI 团队对多个核心组件进行了适配和测试:
-
数据融合层:确保所有单元测试通过,针对元数据列等关键特性补充了集成测试。
-
联邦查询:完善了对多部分表名(如Dremio格式)的支持测试。
-
表提供者:验证了所有表提供者接口的兼容性。
-
DuckDB 集成:确保与 DuckDB 的交互接口稳定运行。
-
Iceberg 支持:测试了 686 个测试用例,全部通过验证。
此次升级采用了分阶段、渐进式的实施策略,每个组件都经过严格的性能基准测试和功能验证,确保升级过程平滑稳定,不影响现有用户的使用体验。
通过这次技术升级,SpiceAI 平台在查询性能、稳定性和功能完整性方面都得到了显著提升,为用户处理大规模数据分析任务提供了更强大的技术支持。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00