Quokka:让数据湖为时间序列工作负载而生
项目介绍
Quokka 是一个专为时间序列数据设计的高性能分布式查询引擎。它基于 Python 构建,集成了 DuckDB、Polars、Ray、Arrow、Redis 和 SQLGlot 等强大的技术组件。Quokka 的核心目标是让数据湖能够高效地处理时间序列数据,无论是复杂的窗口计算、时间序列连接,还是复杂的模式识别和自定义状态计算,Quokka 都能轻松应对。
项目技术分析
Quokka 采用了基于推送的分布式查询引擎架构,并结合了基于血统的容错机制。这种设计使得 Quokka 能够在处理大规模历史时间序列数据时,实现高效的流水线操作和 I/O 优化。Quokka 的数据流(DataStream)类似于 Spark 的 RDD,但不同的是,数据分区可以按顺序生成并立即消费,从而避免了 Spark 中所有分区必须同时存在的限制。
Quokka 的技术栈包括:
- DuckDB:用于高效的 SQL 查询和关系代数计算。
- Polars:提供快速的 DataFrame 操作。
- Ray:用于任务调度和分布式计算。
- Arrow:用于高效的数据 I/O。
- Redis:用于血统记录和状态管理。
- SQLGlot:用于 SQL 解析和优化。
项目及技术应用场景
Quokka 的应用场景非常广泛,特别适合需要处理大规模时间序列数据的领域,例如:
- 高频交易回测:在几分钟内回测过去四年的高频交易策略。
- 向量嵌入分析:轻松集成新的输入读取器,如 Lance 格式。
- 极端特征工程:在 10,000 列数据上进行复杂的特征工程。
- TPC-H 查询:在许多 TPC-H 查询中,Quokka 的性能远超 SparkSQL。
此外,Quokka 还支持复杂的模式识别、冰山订单检测和在线学习算法的回测等高级应用场景。
项目特点
Quokka 具有以下显著特点:
- 完全基于 Python:Quokka 的实现完全基于 Python,易于扩展和定制。
- 高效的流水线操作:通过数据分区的顺序生成和立即消费,实现高效的流水线操作。
- 强大的时间序列处理能力:支持复杂的时间序列操作,如窗口计算、时间序列连接和模式识别。
- 易于扩展:Quokka 的设计使得添加新的操作和用例变得非常简单,只需提交一个 GitHub 问题,开发者很可能会为你编写相应的操作符。
- 高性能:集成了多个高效的 C++/Rust 实现库,确保了卓越的性能。
快速开始
要开始使用 Quokka,首先需要安装 Redis 6.2 或更高版本,然后通过 pip 安装 pyquokka。Quokka 提供了一个类似于 Spark DataFrame API 的数据流 API,可以轻松地从 Polars DataFrame 创建数据流进行本地测试。
pip3 install pyquokka
更多详细信息和示例代码,请参考 Quokka 文档。
结语
Quokka 是一个强大的工具,特别适合需要处理大规模时间序列数据的应用场景。无论你是数据科学家、量化分析师还是开发人员,Quokka 都能为你提供高效、灵活的解决方案。如果你对 Quokka 感兴趣,欢迎加入 Discord 社区 或通过 GitHub 提交问题和建议。让我们一起让数据湖为时间序列工作负载而生!
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00