Spark NLP 5.5.3版本发布:增强文本嵌入、修复注意力掩码与性能优化
项目简介
Spark NLP是一个基于Apache Spark的开源自然语言处理库,它提供了丰富的预训练模型和高效的分布式处理能力。作为企业级NLP解决方案,Spark NLP在文本分类、命名实体识别、情感分析等任务中表现出色,特别适合处理大规模文本数据。
核心更新内容
1. BGE嵌入模型的重大改进
本次更新对BGE(Bidirectional Generative Encoder)嵌入模型进行了重要优化。BGE模型是一种双向生成式编码器,能够生成高质量的文本向量表示。在之前的版本中,BGE模型使用固定的池化策略,这导致某些模型变体的表现不够理想(余弦相似度约为0.97,与原始实现相比)。
新版本引入了以下改进:
- 新增
useCLSToken参数,允许用户控制嵌入池化策略 - 将默认预训练模型从"bge_base"更改为"bge_small_en_v1.5"
- 支持不同BGE模型使用不同的池化策略(CLS令牌池化或基于注意力的平均池化)
开发者现在可以更灵活地配置BGE模型:
// 使用CLS令牌池化(默认)
val embeddingsCLS = BGEEmbeddings.pretrained("bge_small_en_v1.5")
.setUseCLSToken(true)
.setInputCols("document")
.setOutputCol("embeddings")
// 使用基于注意力的平均池化
val embeddingsAvg = BGEEmbeddings.pretrained("bge_small_en_v1.5")
.setUseCLSToken(false)
.setInputCols("document")
.setOutputCol("embeddings")
2. 注意力掩码计算的修复
注意力掩码是Transformer架构中的关键组件,它决定了模型在处理序列时应该关注哪些部分。本次更新修复了多个嵌入模型中注意力掩码填充计算不正确的问题,包括:
- MPNet
- BGE
- E5
- Mxbai
- Nomic
- SnowFlake
- UAE
这一修复确保了原生实现与ONNX版本之间结果的一致性,提高了模型在不同运行环境下的稳定性。
3. 性能优化
新版本对模型推理路径进行了多项优化:
- 优化了OpenVINO和ONNX的推理路径
- 改进了代码清理和标准化流程
- 提升了Transformer模型的整体运行效率
这些优化使得模型在处理大规模文本时能够更高效地利用计算资源,降低内存消耗和计算时间。
兼容性说明
BGE嵌入模型的变更
-
默认模型变更:
- 旧默认:"bge_base"
- 新默认:"bge_small_en_v1.5"
- 应对措施:如果需要继续使用"bge_base",需要显式指定模型名称
-
池化策略变更:
- 新增
useCLSToken参数,默认值为True - 可能影响现有的嵌入计算结果
- 应对措施:验证现有实现,必要时显式设置参数
- 新增
技术实现细节
池化策略的选择
在Transformer架构中,如何将变长序列转换为固定长度的向量表示是一个关键问题。常见的池化策略包括:
- CLS令牌池化:使用特殊的[CLS]令牌的隐藏状态作为整个序列的表示
- 平均池化:计算所有令牌隐藏状态的平均值
- 最大池化:取所有令牌隐藏状态的最大值
BGE模型的不同变体在训练时使用了不同的池化策略。新版本通过useCLSToken参数让开发者能够根据具体模型选择适当的池化方式,从而获得最佳的嵌入质量。
注意力掩码的重要性
注意力掩码在Transformer模型中起着至关重要的作用:
- 处理变长序列:通过掩码指示哪些位置是真实的令牌,哪些是填充的
- 控制信息流:防止模型关注到未来的令牌(在解码器中)
- 提高计算效率:避免对填充位置进行不必要的计算
修复后的注意力掩码计算确保了模型能够正确识别和处理输入序列的有效部分,从而生成更准确的嵌入表示。
应用场景建议
基于新版本的改进,我们建议在以下场景中特别考虑使用Spark NLP 5.5.3:
- 语义搜索系统:利用改进后的BGE嵌入模型获取更准确的文档和查询表示
- 文本相似度计算:修复的注意力掩码确保相似度计算的可靠性
- 大规模文本处理:性能优化使得处理海量文本数据更加高效
- 跨平台部署:确保ONNX和原生实现结果一致,便于模型部署
升级建议
对于现有用户,升级到5.5.3版本时建议:
- 测试BGE嵌入模型在新版本中的表现,特别是如果之前依赖默认模型
- 验证现有流程中文本相似度相关任务的结果是否发生变化
- 评估性能提升对现有工作负载的影响
- 考虑是否需要调整池化策略参数以获得最佳结果
Spark NLP 5.5.3通过增强文本嵌入质量、修复关键计算问题和优化性能,进一步提升了其在企业级NLP应用中的价值。这些改进使得开发者能够构建更准确、更高效的文本处理流程,满足日益增长的大规模NLP应用需求。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
GLM-4.7-FlashGLM-4.7-Flash 是一款 30B-A3B MoE 模型。作为 30B 级别中的佼佼者,GLM-4.7-Flash 为追求性能与效率平衡的轻量化部署提供了全新选择。Jinja00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin07
compass-metrics-modelMetrics model project for the OSS CompassPython00