在Azure/mmlspark项目中使用text-embedding-3-small模型的多维度输出功能
概述
Azure/mmlspark项目中的OpenAIEmbedding组件近期新增了对text-embedding-3-small模型的支持,特别是实现了输出维度可配置的功能。这一特性允许开发者根据具体应用场景灵活调整嵌入向量的维度大小,从而在精度和性能之间取得平衡。
技术背景
text-embedding-3-small是OpenAI推出的新一代文本嵌入模型,相比前代产品具有更高的效率和灵活性。该模型最显著的特点就是支持自定义输出维度,开发者可以根据需求选择256、512等不同维度的嵌入向量输出。
实现原理
在mmlspark框架中,这一功能通过OpenAIEmbedding类实现。底层调用了OpenAI API的2024-03-01-preview版本,该版本API新增了对维度参数的支持。当设置dimensions参数后,API会返回相应维度的嵌入向量。
使用方法
在mmlspark中使用text-embedding-3-small模型并设置输出维度非常简单:
from synapse.ml.services.openai import OpenAIEmbedding
# 创建嵌入转换器
embedding = (
OpenAIEmbedding()
.setSubscriptionKey("your-api-key") # 设置API密钥
.setDeploymentName("text-embedding-3-small") # 指定模型
.setCustomServiceName("your-service-name") # 自定义服务名
.setApiVersion("2024-03-01-preview") # 使用支持维度设置的API版本
.setDimensions(256) # 设置输出维度为256
.setTextCol("text_column") # 指定输入文本列
.setErrorCol("error_column") # 错误信息列
.setOutputCol("embeddings") # 输出列名
)
# 应用转换
result = embedding.transform(input_dataframe)
参数说明
-
setDimensions(): 核心参数,用于设置输出嵌入向量的维度。常见值为256、512等,具体支持的值需参考OpenAI API文档。
-
setApiVersion(): 必须设置为"2024-03-01-preview"或更高版本,旧版本API不支持维度设置功能。
-
setDeploymentName(): 明确指定使用text-embedding-3-small模型。
应用场景
-
存储优化: 降低嵌入维度可以减少存储空间需求,适合大规模向量数据库应用。
-
计算加速: 低维向量可以加快相似性计算速度,提高检索效率。
-
特定任务优化: 某些下游任务可能不需要高维嵌入,适当降低维度反而能提高性能。
注意事项
-
维度降低可能会导致嵌入质量轻微下降,需要在具体应用中测试验证。
-
不同维度的嵌入向量不能直接比较相似度,同一应用应使用相同维度设置。
-
API版本必须匹配,旧版本不支持此功能。
总结
mmlspark对text-embedding-3-small模型的支持为开发者提供了更大的灵活性,使得文本嵌入技术能够更好地适应不同场景的需求。通过合理设置输出维度,开发者可以在模型效果和系统性能之间找到最佳平衡点。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00