【亲测免费】 FramePack 开源项目教程
2026-01-31 04:39:34作者:毕习沙Eudora
1. 项目介绍
FramePack 是一个用于视频生成的神经网络结构,它通过预测下一帧(或下一帧段)来逐步生成视频。该模型的特点是将输入的上下文压缩到固定长度,使得生成的工作负载不会随着视频长度的增加而增加。FramePack 能够在笔记本电脑的 GPU 上处理大量帧,即使是 13B 大小的模型也能正常运行。此外,FramePack 可以使用比图像扩散训练更大的批量大小进行训练。
2. 项目快速启动
环境要求
- GPU:支持 fp16 和 bf16 的 Nvidia RTX 30XX、40XX、50XX 系列。GTX 10XX/20XX 系列未经测试。
- 操作系统:Linux 或 Windows。
- GPU 内存:至少 6GB。生成 1 分钟(1800 帧)30fps 的视频,建议使用至少 6GB GPU 内存。
安装
Windows
一键安装包即将发布,请明天再回来查看。
Linux
推荐使用独立的 Python 3.10 环境。
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
pip install -r requirements.txt
启动 GUI:
python demo_gradio.py
注意,该软件支持 PyTorch attention、xformers、flash-attn、sage-attention。默认情况下,它将使用 PyTorch attention。如果你知道如何操作,可以安装其他注意力内核。
例如,安装 sage-attention(Linux):
pip install sageattention==1.0.6
但是,我们强烈建议首先不使用 sage-attention,因为它会影响结果,尽管影响很小。
3. 应用案例和最佳实践
GUI 使用
- 在左侧上传图像并编写提示。
- 在右侧将显示生成的视频和潜在预览。
- 由于这是一个下一帧段预测模型,视频会逐渐变长。
- 你将看到每个段的进度条和下一段的潜在预览。
- 注意,初始进度可能比后来的扩散慢,因为设备可能需要预热。
敏感性测试
在尝试自己的输入之前,我们强烈建议进行敏感性测试,以找出硬件或软件是否出现问题。下一帧段预测模型对噪声和硬件的细微差异非常敏感。通常,不同设备上的人们会得到略微不同的结果,但结果应该看起来大体相似。在某些情况下,如果可能,你会得到完全相同的结果。
示例
- 图片到 5 秒视频:上传图片,复制提示,设置参数(所有默认参数,关闭 teacache),生成结果为 0.mp4。
- 图片到 1 分钟视频:设置视频长度为 60 秒,如果一切正常,最终会得到类似的结果。
提示指南
- 许多用户会询问如何编写更好的提示。以下是一个 ChatGPT 模板,我个人经常用来获取提示。
- 当用户发送图片时,以简短、动作焦点的方式描述视觉动作。例如:“女孩优雅地跳舞,动作清晰,充满魅力。”
4. 典型生态项目
由于 FramePack 是一个专注于视频生成的项目,其生态项目可能包括:
- 视频编辑和后处理工具。
- 与其他视频生成模型的集成。
- 用于培训 FramePack 的数据集和工具。
- 基于 FramePack 的定制应用程序,如动画制作或游戏开发。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
567
3.83 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
892
667
Ascend Extension for PyTorch
Python
376
445
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
349
200
昇腾LLM分布式训练框架
Python
116
145
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
778
暂无简介
Dart
798
197
React Native鸿蒙化仓库
JavaScript
308
359
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
1.13 K
271