SpiceAI v1.2.2 发布:增强 Databricks 集成与模型服务能力
SpiceAI 是一个开源的数据与 AI 基础设施平台,旨在简化企业级数据应用和 AI 模型的开发与部署流程。它提供了统一的数据访问层、模型服务框架和实时计算能力,帮助开发者快速构建智能应用。最新发布的 v1.2.2 版本重点增强了与 Databricks 生态系统的集成能力,并改进了多项核心功能。
深度集成 Databricks 模型服务
本次更新的亮点之一是 SpiceAI 现在原生支持 Databricks Mosaic AI 模型服务。开发者可以直接在 Spice 配置文件中声明 Databricks 托管的 LLM 大语言模型和 embedding 嵌入模型,无需额外编写集成代码。
这种集成采用机器对机器(M2M)的 OAuth 认证方式,通过服务主体(Service Principal)的 client_id 和 client_secret 进行安全认证。Spice 运行时会自动管理令牌刷新,确保长时间运行的稳定性。配置示例如下:
models:
  - from: databricks:databricks-llama-4-maverick
    name: llama-4-maverick
    params:
      databricks_endpoint: your-databricks-instance.cloud.databricks.com
      databricks_client_id: ${secrets:DATABRICKS_CLIENT_ID}
      databricks_client_secret: ${secrets:DATABRICKS_CLIENT_SECRET}
embeddings:
  - from: databricks:databricks-gte-large-en
    name: gte-large-en
    params:
      databricks_endpoint: your-databricks-instance.cloud.databricks.com
      databricks_client_id: ${secrets:DATABRICKS_CLIENT_ID}
      databricks_client_secret: ${secrets:DATABRICKS_CLIENT_SECRET}
这种设计既保证了安全性,又简化了配置流程,特别适合企业级部署场景。
Helm 图表服务端口可配置化
对于 Kubernetes 部署用户,v1.2.2 改进了 Helm 图表的灵活性。现在可以通过 values 文件自定义服务端口,满足不同网络环境的需求。这一改进使得 SpiceAI 在复杂的 Kubernetes 集群中部署更加灵活,能够适应各种网络策略和端口分配方案。
核心功能优化与问题修复
本次版本还包含多项稳定性改进和 bug 修复:
- 
MCP 嵌套工具调用修复:解决了当 Spice 作为 MCP 服务器时,无法正确处理嵌套工具调用的问题,完善了多模型协作场景下的功能完整性。
 - 
数据集并行加载优化:现在正确遵循 dataset_load_parallelism 配置参数,优化了大数据集加载时的资源利用率,提高了初始化速度。
 - 
加速配置热重载:修复了修改加速配置后需要重启服务才能生效的问题,现在支持实时检测 Spicepod.yaml 中的变更,提升了开发效率。
 - 
缓存管理增强:限制了单个缓存记录的最大尺寸(4GB),并优化了缓存键计算逻辑,特别是处理 no-cache 头部的场景。
 - 
MySQL 连接字符集:自动设置 character_set_results/character_set_client/character_set_connection 会话变量,确保字符编码一致性。
 
技术实现细节
在底层实现上,SpiceAI v1.2.2 引入了专门的 token_providers 模块来统一管理各种认证令牌。该模块采用后台自动刷新机制,确保长期运行的稳定性。对于 Databricks 集成,特别优化了用户代理字符串的传递,便于服务端识别和监控。
在 SQL 处理方面,增强了 Iceberg 表格式的谓词下推能力,确保查询条件能够正确匹配 Parquet 文件中的列类型。同时改进了 SQLite 中数值 BETWEEN 操作的比较逻辑,使用 decimal_cmp 确保精度准确性。
升级建议
对于现有用户,v1.2.2 是一个无破坏性变更的版本,可以平滑升级。推荐所有使用 Databricks 服务的用户升级以获取完整的模型集成能力。升级方式支持多种途径,包括 CLI 工具、Homebrew、Docker 和 Helm 等标准方式。
总结
SpiceAI v1.2.2 通过深度集成 Databricks 模型服务,进一步巩固了其作为企业级 AI 基础设施的地位。同时,多项核心功能的优化提升了系统的稳定性和开发体验。这些改进使得 SpiceAI 在构建复杂的数据和 AI 应用时更加得心应手,特别是在需要整合多种数据源和模型服务的场景下。
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00- DDeepSeek-OCRDeepSeek-OCR是一款以大语言模型为核心的开源工具,从LLM视角出发,探索视觉文本压缩的极限。Python00
 
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
HunyuanWorld-Mirror混元3D世界重建模型,支持多模态先验注入和多任务统一输出Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Jinja00
Spark-Scilit-X1-13B科大讯飞Spark Scilit-X1-13B基于最新一代科大讯飞基础模型,并针对源自科学文献的多项核心任务进行了训练。作为一款专为学术研究场景打造的大型语言模型,它在论文辅助阅读、学术翻译、英语润色和评论生成等方面均表现出色,旨在为研究人员、教师和学生提供高效、精准的智能辅助。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00- HHowToCook程序员在家做饭方法指南。Programmer's guide about how to cook at home (Chinese only).Dockerfile014
 
Spark-Chemistry-X1-13B科大讯飞星火化学-X1-13B (iFLYTEK Spark Chemistry-X1-13B) 是一款专为化学领域优化的大语言模型。它由星火-X1 (Spark-X1) 基础模型微调而来,在化学知识问答、分子性质预测、化学名称转换和科学推理方面展现出强大的能力,同时保持了强大的通用语言理解与生成能力。Python00- PpathwayPathway is an open framework for high-throughput and low-latency real-time data processing.Python00