Spark NLP 5.5.3版本发布:增强文本嵌入、修复注意力掩码与性能优化
项目简介
Spark NLP是一个基于Apache Spark的开源自然语言处理库,它提供了丰富的预训练模型和高效的分布式处理能力。作为企业级NLP解决方案,Spark NLP在文本分类、命名实体识别、情感分析等任务中表现出色,特别适合处理大规模文本数据。
核心更新内容
1. BGE嵌入模型的重大改进
本次更新对BGE(Bidirectional Generative Encoder)嵌入模型进行了重要优化。BGE模型是一种双向生成式编码器,能够生成高质量的文本向量表示。在之前的版本中,BGE模型使用固定的池化策略,这导致某些模型变体的表现不够理想(余弦相似度约为0.97,与原始实现相比)。
新版本引入了以下改进:
- 新增
useCLSToken参数,允许用户控制嵌入池化策略 - 将默认预训练模型从"bge_base"更改为"bge_small_en_v1.5"
- 支持不同BGE模型使用不同的池化策略(CLS令牌池化或基于注意力的平均池化)
开发者现在可以更灵活地配置BGE模型:
// 使用CLS令牌池化(默认)
val embeddingsCLS = BGEEmbeddings.pretrained("bge_small_en_v1.5")
.setUseCLSToken(true)
.setInputCols("document")
.setOutputCol("embeddings")
// 使用基于注意力的平均池化
val embeddingsAvg = BGEEmbeddings.pretrained("bge_small_en_v1.5")
.setUseCLSToken(false)
.setInputCols("document")
.setOutputCol("embeddings")
2. 注意力掩码计算的修复
注意力掩码是Transformer架构中的关键组件,它决定了模型在处理序列时应该关注哪些部分。本次更新修复了多个嵌入模型中注意力掩码填充计算不正确的问题,包括:
- MPNet
- BGE
- E5
- Mxbai
- Nomic
- SnowFlake
- UAE
这一修复确保了原生实现与ONNX版本之间结果的一致性,提高了模型在不同运行环境下的稳定性。
3. 性能优化
新版本对模型推理路径进行了多项优化:
- 优化了OpenVINO和ONNX的推理路径
- 改进了代码清理和标准化流程
- 提升了Transformer模型的整体运行效率
这些优化使得模型在处理大规模文本时能够更高效地利用计算资源,降低内存消耗和计算时间。
兼容性说明
BGE嵌入模型的变更
-
默认模型变更:
- 旧默认:"bge_base"
- 新默认:"bge_small_en_v1.5"
- 应对措施:如果需要继续使用"bge_base",需要显式指定模型名称
-
池化策略变更:
- 新增
useCLSToken参数,默认值为True - 可能影响现有的嵌入计算结果
- 应对措施:验证现有实现,必要时显式设置参数
- 新增
技术实现细节
池化策略的选择
在Transformer架构中,如何将变长序列转换为固定长度的向量表示是一个关键问题。常见的池化策略包括:
- CLS令牌池化:使用特殊的[CLS]令牌的隐藏状态作为整个序列的表示
- 平均池化:计算所有令牌隐藏状态的平均值
- 最大池化:取所有令牌隐藏状态的最大值
BGE模型的不同变体在训练时使用了不同的池化策略。新版本通过useCLSToken参数让开发者能够根据具体模型选择适当的池化方式,从而获得最佳的嵌入质量。
注意力掩码的重要性
注意力掩码在Transformer模型中起着至关重要的作用:
- 处理变长序列:通过掩码指示哪些位置是真实的令牌,哪些是填充的
- 控制信息流:防止模型关注到未来的令牌(在解码器中)
- 提高计算效率:避免对填充位置进行不必要的计算
修复后的注意力掩码计算确保了模型能够正确识别和处理输入序列的有效部分,从而生成更准确的嵌入表示。
应用场景建议
基于新版本的改进,我们建议在以下场景中特别考虑使用Spark NLP 5.5.3:
- 语义搜索系统:利用改进后的BGE嵌入模型获取更准确的文档和查询表示
- 文本相似度计算:修复的注意力掩码确保相似度计算的可靠性
- 大规模文本处理:性能优化使得处理海量文本数据更加高效
- 跨平台部署:确保ONNX和原生实现结果一致,便于模型部署
升级建议
对于现有用户,升级到5.5.3版本时建议:
- 测试BGE嵌入模型在新版本中的表现,特别是如果之前依赖默认模型
- 验证现有流程中文本相似度相关任务的结果是否发生变化
- 评估性能提升对现有工作负载的影响
- 考虑是否需要调整池化策略参数以获得最佳结果
Spark NLP 5.5.3通过增强文本嵌入质量、修复关键计算问题和优化性能,进一步提升了其在企业级NLP应用中的价值。这些改进使得开发者能够构建更准确、更高效的文本处理流程,满足日益增长的大规模NLP应用需求。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C051
MiniMax-M2.1从多语言软件开发自动化到复杂多步骤办公流程执行,MiniMax-M2.1 助力开发者构建下一代自主应用——全程保持完全透明、可控且易于获取。Python00
kylin-wayland-compositorkylin-wayland-compositor或kylin-wlcom(以下简称kywc)是一个基于wlroots编写的wayland合成器。 目前积极开发中,并作为默认显示服务器随openKylin系统发布。 该项目使用开源协议GPL-1.0-or-later,项目中来源于其他开源项目的文件或代码片段遵守原开源协议要求。C01
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
agent-studioopenJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力TSX0126
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00