DataHub v1.0.0发布:元数据管理平台的全面升级
项目概述
DataHub是一个开源的元数据管理平台,由LinkedIn团队开发并贡献给开源社区。作为现代数据架构中的关键组件,DataHub能够帮助企业集中管理、发现和理解其数据资产。通过提供统一的元数据视图,DataHub解决了数据孤岛问题,使组织能够更好地利用其数据资产。
全新用户体验设计
DataHub v1.0带来了彻底重新设计的用户界面,这是对用户与元数据交互方式的根本性重新思考。新界面专注于简化导航流程和提升视觉体验,主要体现在以下几个方面:
-
平台化导航系统:现在可以按照数据库和模式层次结构浏览数据,支持Snowflake、BigQuery、Redshift、Databricks等主流数据平台。用户可以将层次化导航与基于数据所有者、领域、标签和术语表的过滤功能结合使用,快速定位所需数据。
-
增强的谱系探索:重新设计的谱系视图支持多级展开、基于名称的搜索和列级可见性,使得理解数据关系和影响变得更加直观。这一改进特别适合复杂的数据环境,用户可以轻松追踪数据从源头到消费的完整路径。
-
集成的数据质量指标:新版本将数据质量信号深度集成到平台各处,帮助用户快速识别可靠的数据资产。质量指标现在与搜索结果、资产详情页面等关键界面无缝结合,使用户在决策时能够获得全面的质量参考。
AI资产全面支持
DataHub v1.0将AI资产提升为一等公民,实现了数据和AI资产的统一管理:
-
统一搜索发现:用户现在可以在一个界面中无缝搜索模型、模型组和传统数据资产,打破了数据和AI之间的壁垒。
-
高级版本控制系统:支持数据集和机器学习模型的多版本跟踪,包括详细的性能指标和版本间的清晰关联。这一功能对于模型治理和回滚特别有价值。
-
丰富的模型统计:平台现在可以监控关键指标的变化趋势,帮助用户做出基于数据的模型部署决策。统计信息包括准确率、召回率等核心指标,以及自定义的业务指标。
-
端到端谱系追踪:从原始输入数据到模型再到最终输出的完整数据流现在可以被追踪,且全面支持版本控制。这一功能对于模型可解释性和合规性审计至关重要。
Iceberg REST Catalog Beta版
DataHub v1.0引入了与Apache Iceberg的深度集成,提供了以下能力:
-
表管理功能:用户可以直接通过DataHub创建和管理Iceberg表,简化了数据湖管理流程。
-
元数据一致性:确保DataHub和Iceberg之间的元数据保持同步,避免了传统方案中常见的元数据不一致问题。
-
数据发现增强:将Iceberg表元数据暴露在DataHub中,提高了这些资产的可发现性。
-
安全访问控制:通过DataHub的权限模型管理对Iceberg表的访问,实现了统一的权限管理。
命令行工具改进
DataHub CLI在此版本中获得了多项增强:
-
容器级操作:新增的container命令允许用户对容器内所有资产批量应用标签、术语和所有者设置,大大简化了大规模元数据管理。
-
批量删除功能:改进的delete命令现在支持从文件读取URN列表进行批量删除,提高了管理效率。
-
S3支持:ingest命令扩展了从S3摄取MCPs的能力,为云原生环境提供了更好的支持。
元数据摄取增强
DataHub v1.0对各类数据源的集成进行了全面优化:
-
dbt集成:新增include_database_name参数,支持在URN生成中包含数据库名称,提高了跨环境兼容性。
-
MLFlow深度集成:彻底改造了MLFlow连接器,新增了对模型组版本、模型统计、实验和运行的支持,以及模型到底层数据集的谱系追踪。
-
数据库支持扩展:
- MSSQL:改进了存储过程的提取能力
- Oracle:提高了列级谱系解析的准确性
- Redshift:新增对数据共享和外部模式的支持,包括跨命名空间的自动谱系解析
- Snowflake:新增对Streams和Hybrid Tables的支持,修复了表重命名时的谱系解析问题
-
BI工具增强:
- PowerBI:改进了谱系映射,现在报表可以包含仪表板
- Superset:新增对虚拟数据集和谱系的支持
技术价值与展望
DataHub v1.0的发布标志着元数据管理平台向更智能、更统一的方向发展。通过将AI资产纳入核心管理范畴,DataHub正在突破传统元数据管理的边界,为数据智能时代的企业提供了更全面的解决方案。
特别是Iceberg Catalog的引入,展示了DataHub在数据湖管理领域的前瞻性布局。随着企业数据架构向湖仓一体演进,这种深度集成将为用户带来更流畅的管理体验。
展望未来,随着Vertex AI等更多AI平台的集成,DataHub有望成为连接数据和AI的桥梁,为企业提供从数据到智能的端到端可观测性。这种统一的管理视角对于构建可信赖的AI系统至关重要。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00