首页
/ OpenGVLab/InternVideo项目发布ViCLIP-B/16视觉语言预训练模型

OpenGVLab/InternVideo项目发布ViCLIP-B/16视觉语言预训练模型

2025-07-07 12:57:42作者:钟日瑜

近日,OpenGVLab团队在其开源项目InternVideo中表示即将发布基于ViT-B/16架构的ViCLIP预训练模型。这一消息引起了计算机视觉和多媒体分析领域研究者的广泛关注。

ViCLIP是OpenGVLab团队开发的一种创新的视频-文本对齐模型,它建立在CLIP(Contrastive Language-Image Pretraining)的成功基础之上,专门针对视频理解任务进行了优化。该模型采用了Vision Transformer(ViT)作为视觉编码器,能够有效捕捉视频中的时空特征。

此次即将发布的ViT-B/16版本具有以下技术特点:

  1. 模型架构:基于Vision Transformer的Base版本(ViT-B/16),其中16表示patch大小
  2. 训练数据:使用了InternVid-10M-FLT和InternVid-200M两个大规模视频数据集进行预训练
  3. 多模态能力:保持了CLIP框架的双编码器结构,能够同时处理视频和文本输入

ViT-B/16版本的ViCLIP模型在视频-文本检索、视频分类、动作识别等任务上表现出色。相比于更大的模型版本,ViT-B/16在计算效率和模型性能之间取得了良好的平衡,特别适合资源有限的应用场景。

OpenGVLab团队指出,该模型的发布将进一步完善InternVideo项目的模型生态,为研究者和开发者提供更多选择。ViT-B/16版本的ViCLIP预计将在近期正式发布,届时将同步更新相关的演示代码和使用文档。

这一进展标志着视频理解领域的又一重要里程碑,为视频内容分析、智能推荐、人机交互等应用场景提供了更加强大的基础模型支持。研究社区期待该模型的发布能够推动视频理解技术的进一步发展。

登录后查看全文
热门项目推荐
相关项目推荐