HyperDX项目v2.0.0版本发布:全面升级的观测分析平台
HyperDX是一个开源的观测分析平台,专注于为开发者提供日志、指标、追踪和会话回放等可观测性数据的统一分析解决方案。该项目采用现代化的技术栈构建,支持从多种数据源收集和分析数据,帮助团队快速定位和解决系统问题。
核心功能升级
本次发布的v2.0.0版本是一个重要的里程碑更新,主要围绕以下几个方面进行了重大改进:
1. 全面的指标分析支持
新版本显著增强了指标分析能力,支持多种OpenTelemetry指标类型:
- 新增了对Sum、Gauge、Summary和Exponential Histogram等指标类型的完整支持
- 实现了多系列指标图表展示功能,可以同时对比分析多个相关指标
- 改进了指标元数据过滤机制,使指标查询更加精确高效
- 引入了指标与日志的关联分析流程,方便用户从指标异常快速定位相关日志
2. 用户体验优化
在用户界面和交互体验方面进行了多项改进:
- 侧边导航栏的展开/折叠状态现在会保存在本地存储中,保持跨窗口/会话的一致性
- 新增了搜索历史功能,方便用户快速访问之前的查询
- 实现了保存的搜索过滤器,可以快速应用常用查询条件
- 改进了自动补全功能,特别是在仪表盘页面和Lucene v2查询语法下的表现
- 修复了多个UI显示问题,如输入框与语言选择按钮的重叠问题等
3. 性能与架构改进
在系统架构和性能方面进行了重要优化:
- 全面采用clickhouse-js库处理客户端查询,默认使用POST请求提高查询效率
- 实现了CTE(Common Table Expression)渲染支持,有效解决了长URI导致的查询问题
- 移除了连接健康检查钩子,减少了不必要的网络请求
- 优化了图表配置查询逻辑,避免每次按键都触发查询
4. 会话回放增强
会话回放功能得到了显著提升:
- 将会话回放事件获取逻辑迁移到客户端,不再依赖API路由
- 修复了会话回放间歇性显示"无可用回放"的问题
- 只有当数据源配置了sessionId时才会显示追踪的会话回放标签页
- 改进了会话回放面板的UI状态一致性
5. 新增预设仪表盘
为了方便用户快速开始使用,新增了Kubernetes预设仪表盘:
- 提供了开箱即用的K8s集群监控视图
- 包含了节点运行状态等关键指标
- 支持K8s事件告警展示
技术实现细节
在底层技术实现上,v2.0.0版本进行了多项重要调整:
-
查询引擎优化:全面转向使用ClickHouse的POST请求方式,提高了大数据量查询的可靠性和性能。同时保留了本地开发模式下的GET请求支持,方便开发调试。
-
指标处理流程:重新设计了指标数据的存储和查询流程,支持更复杂的指标类型和分析场景。特别是实现了指标与日志的关联分析,为问题排查提供了更直观的路径。
-
构建系统改进:引入了多阶段构建方案,统一处理认证和非认证场景的构建流程,简化了部署过程。
-
错误处理增强:修复了多个边界条件下的错误处理逻辑,如大数值工具提示显示、元数据查询范围限定等问题。
升级建议
对于现有用户升级到v2.0.0版本,建议注意以下几点:
-
数据迁移:新版本对指标存储格式进行了调整,升级前应做好数据备份。
-
配置更新:部分配置项如ClickHouse连接端点的映射关系有所变化,需要相应调整。
-
功能适配:部分UI组件和行为有所变化,建议团队成员提前熟悉新界面。
-
性能监控:升级后初期应密切关注系统性能表现,特别是处理大规模数据时的资源使用情况。
HyperDX v2.0.0版本的发布标志着该项目进入了一个新的成熟阶段,为开发者提供了更强大、更稳定的可观测性分析平台。无论是功能广度还是使用体验,都有了质的提升,值得现有用户升级和新用户尝试。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00