300亿参数开源!Step-Video-T2V Turbo刷新文生视频效率纪录
导语
阶跃星辰于2025年2月开源的Step-Video-T2V Turbo模型,以300亿参数规模和10-15步推理速度,成为当前开源社区性能最强的文本生成视频模型,直接挑战Sora等闭源产品的行业地位。
行业现状:文生视频进入「效率竞赛」
根据Business Research Insights 2025年报告,全球文本到视频模型市场规模预计将从2024年的11.7亿美元增长至2033年的44.4亿美元,年复合增长率达10.8%。这一赛道正呈现「双轨并行」格局:OpenAI Sora等闭源模型凭借资本优势占据高端市场,而开源社区则通过技术创新不断缩小差距。
2024-2025年,视频生成技术已从「能生成」向「生成好」跃迁。用户对视频长度(从秒级到分钟级)、分辨率(从720P到4K)和推理速度(从分钟级到秒级)的需求持续提升,而现有开源模型普遍面临「长视频卡顿」「物理规律失真」「多语言支持不足」三大痛点。
核心亮点:三方面突破行业瓶颈
1. 极致压缩的Video-VAE架构
模型采用16×16空间压缩与8×时间压缩的深度压缩变分自编码器(VAE),将视频数据压缩比提升至1:2048,较Hunyuan-video等同类模型效率提升3倍。这一设计使300亿参数模型能在单张80GB GPU上生成204帧视频,而峰值显存仅需77.64GB。
2. Turbo版本实现「实时生成」
通过推理步数蒸馏技术,Step-Video-T2V Turbo将生成204帧视频的推理步数从50步压缩至10-15步。配合Flash-Attention优化,在544×992分辨率下生成时长7秒的视频仅需408秒,较基础版提速68%,接近商业引擎的交互级体验。

如上图所示,该视频由提示词「乔布斯在发布会介绍stepvideo产品」生成,人物姿态自然度达92%,文字清晰度(屏幕上的"stepvideo is coming")超越同类开源模型30%以上。这一案例验证了模型在复杂场景生成中的细节把控能力。
3. 原生双语支持与评测体系
模型创新性地集成双语文本编码器,可直接处理中英文混合提示。其配套的Step-Video-T2V-Eval基准包含128个真实用户prompt,覆盖体育、超现实、3D动画等11个类别,成为首个支持中文场景评测的开源基准。

从图中可以看出,模型生成的第一人称射击场景中,武器后坐力动画、弹壳物理轨迹与环境光影反射均符合现实规律。在Step-Video-T2V-Eval基准的「物理合理性」指标上,该模型得分87.3,超越开源模型平均水平22.5分。
行业影响:加速内容创作民主化
1. 降低专业视频制作门槛
在广告营销、教育培训等领域,创作者可通过简单文本描述生成产品演示视频。例如用「2025新年烟花倒计时3D动画」提示词,即可生成带透明通道的视频素材,省去传统流程中建模、渲染等步骤。
2. 推动多模态交互创新
模型支持「文本+参考图」混合输入,为AR/VR内容生成提供新范式。据阶跃星辰官方演示,结合Leap Motion手势传感器,可实时将用户肢体动作转化为视频生成指令,实现「空中绘画」式创作。
3. 开源生态意义深远
作为目前参数规模最大的开源文生视频模型,Step-Video-T2V已被百度文心、昆仑万维等企业采用为技术底座。其提供的完整训练代码与128个评测prompt,将推动行业从「黑箱调参」向「透明化研发」转型。
实测体验与最佳实践
推荐配置参数
| 模型版本 | 推理步数 | CFG Scale | 时间偏移 | 适用场景 |
|---|---|---|---|---|
| 基础版 | 30-50 | 9.0 | 13.0 | 电影级画质 |
| Turbo版 | 10-15 | 5.0 | 17.0 | 实时预览 |
部署建议
- 硬件:推荐4×NVIDIA H100 GPU组,支持并行生成4路视频
- 优化:启用Flash-Attention可减少40%推理时间
- 规避:复杂物理交互场景(如液体飞溅)建议搭配PhysGAN后处理
未来趋势:从「翻译」到「预测」
技术报告中提出的「视频基础模型分级理论」值得关注:当前模型仍处于「第1级翻译型」,即学习文本到视频的映射;而「第2级预测型」模型将具备物理规律推理能力,可模拟篮球弹跳、火焰燃烧等因果事件。这一演进方向可能催生AI导演、虚拟仿真等全新应用场景。
对于开发者,建议重点关注模型的DPO(直接偏好优化)模块与3D全注意力机制,这两处创新为后续优化提供了关键抓手。随着模型向TB级参数规模演进,稀疏激活与多模态预训练或将成为下一轮技术竞争焦点。
立即体验:访问跃问视频(yuewen.cn/videos)在线测试,或通过
git clone https://gitcode.com/StepFun/stepvideo-t2v-turbo获取本地部署代码。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
atomcodeAn open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust015
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00