GraphScope 0.31.0版本发布:交互式图计算与持久化存储的重大升级
GraphScope是阿里巴巴开源的一款分布式图计算系统,它整合了图分析引擎(GAE)、图交互式查询引擎(GIE)和图学习引擎(GLE)三大组件,为用户提供了一站式的图计算解决方案。本次发布的0.31.0版本主要针对FLEX Interactive交互式查询引擎和Groot持久化存储进行了多项重要改进。
FLEX Interactive引擎的显著增强
字符串类型支持扩展
本次更新中,FLEX Interactive引擎新增了对VarChar字符串类型的支持。这一改进使得系统能够更灵活地处理各种文本数据,特别是在社交网络分析、知识图谱等场景中,字符串类型数据的处理能力至关重要。开发人员现在可以在图模型中定义字符串属性,并在查询中直接使用这些属性进行过滤和匹配操作。
运行时架构重构
团队对交互式运行时的实现进行了深度重构,这一架构层面的优化显著提升了系统的执行效率和整体性能。重构后的运行时能够更有效地管理内存和计算资源,特别是在处理大规模图数据时表现出更好的稳定性和响应速度。
创新的分片模式
引入全新的sharding_mode配置选项是本次更新的另一大亮点。默认情况下,系统会采用exclusive分片模式,这种设计巧妙地解决了管理请求可能被长时间运行的图查询阻塞的问题。通过智能的资源隔离机制,系统现在能够同时保证后台管理任务和前端查询请求的及时响应。
查询优化突破
针对Scan+Limit模式的查询进行了专项优化。这类查询在现实应用中非常常见,比如分页查询和Top-N分析场景。优化后的执行引擎能够更智能地识别这类查询模式,并采用更高效的执行策略,显著减少了不必要的全图扫描操作。
边三元组多属性支持
扩展了边三元组的属性支持能力,现在每条边可以携带多个属性信息。这一改进极大地丰富了图数据的表达能力,使得边不仅可以表示实体间的关系,还能携带更丰富的上下文信息。例如,在社交网络分析中,一条表示好友关系的边现在可以同时记录建立时间、亲密度等多个维度的信息。
Groot持久化存储的重要更新
Gremlin HTTP服务支持
Groot存储引擎现在提供了HTTP Gremlin服务接口,开发者可以通过标准的HTTP协议发送Gremlin查询,并以JSON格式接收响应结果。这一特性极大地简化了系统集成工作,使得各种编程语言和工具都能方便地与图数据库交互。
数据类型对齐
为了确保系统间的一致性,Groot存储引擎的数据类型现在与FLEX Interactive引擎完全对齐。这种统一的数据模型设计消除了组件间的数据转换开销,同时也降低了用户的学习成本。
关键缺陷修复
本次更新修复了多个影响系统稳定性的关键问题,包括:
- 修复了从空条目获取属性的异常处理
- 解决了聚合列顺序不匹配的问题
- 修正了Union操作中别名ID处理的缺陷
- 修复了Groot图表中STORE_COUNT设置的错误
系统部署与升级
对于希望体验新版本的用户,项目提供了预构建的Docker镜像。Flex Interactive引擎镜像和开发环境镜像都已更新至最新版本,用户可以直接拉取使用。此外,系统也提供了多种架构的.deb安装包,方便不同环境下的部署需求。
技术价值与展望
GraphScope 0.31.0版本的发布标志着该项目在交互式图计算和持久化存储方面又迈出了坚实的一步。通过持续的性能优化和功能增强,GraphScope正在成为企业级图计算应用的可靠选择。特别是对字符串类型的支持和查询优化,使得系统能够更好地应对现实世界中的复杂图分析场景。
未来,随着图计算技术的不断发展,我们可以期待GraphScope在分布式处理能力、查询语言支持以及生态系统集成等方面带来更多创新。对于正在构建图计算应用的企业和开发者来说,这一版本无疑提供了更加强大和稳定的技术基础。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00