首页
/ MiniCPM-V视觉编码器架构解析:基于SigLIP与NaViT的视觉Transformer实现

MiniCPM-V视觉编码器架构解析:基于SigLIP与NaViT的视觉Transformer实现

2025-05-12 17:21:44作者:卓炯娓

MiniCPM-V项目采用了先进的视觉编码器架构,其核心视觉Transformer组件基于SigLIP-SO400M预训练模型实现,并融合了多项创新技术。

视觉编码器架构选择

MiniCPM-V团队在视觉编码器的实现上做出了精心设计。初始阶段,项目采用了HuggingFaceM4团队发布的siglip-so400m-14-384-flash-attn2模型作为基础架构。这个模型本身已经具备强大的视觉特征提取能力,但为了适应更广泛的应用场景,开发团队对其进行了两项关键改进。

分辨率扩展技术

原始siglip-so400m模型的最大输入分辨率限制在384×384像素。MiniCPM-V通过插值位置嵌入(position embeddings)的方法,将最大分辨率扩展至980×980像素。这种扩展技术使得模型能够处理更高清的图像输入,显著提升了模型在高分辨率场景下的表现能力。

NaViT技术集成

项目团队还创新性地集成了NaViT(Vision Transformer with Native Resolution)技术。这项技术带来了两个重要优势:

  1. 支持可变分辨率图像输入,不再受限于固定尺寸
  2. 保持原始图像的长宽比,避免因强制缩放导致的图像变形

这种实现方式既保留了原始SigLIP模型的强大特征提取能力,又通过分辨率扩展和NaViT技术增强了模型的实用性和灵活性。

实现方案优化

值得注意的是,虽然模型权重基于siglip-so400m实现,但在代码实现上,MiniCPM-V选择了使用idefics2的Transformer实现。这是因为idefics2已经被集成到transformers官方库中,能够提供更好的兼容性和维护性。技术团队确认,这两种实现方式在功能上是完全等效的,这种选择纯粹出于工程实践的考虑。

这种架构设计使得MiniCPM-V能够在保持模型性能的同时,获得更好的开发效率和部署便利性,体现了团队在工程实现上的深思熟虑。