ComfyUI-LTXVideo工作流模板分享:快速上手专业级视频创作
你是否还在为视频创作中的复杂参数调整而烦恼?是否想快速生成专业级视频效果却受制于技术门槛?本文将带你一文掌握ComfyUI-LTXVideo的工作流模板应用,从安装到高级技巧全覆盖,让你轻松实现从图片到视频的创意转化。
模板概览与核心功能
ComfyUI-LTXVideo提供了丰富的工作流模板,覆盖从基础到高级的各种视频创作需求。这些模板位于项目的example_workflows/目录下,主要分为以下几类:
- 图像转视频(I2V):如ltxv-13b-i2v-base.json和low_level/ltxvideo-i2v.json,支持从单张图片生成连贯视频
- 视频扩展:如ltxv-13b-i2v-extend.json,可延长视频时长并保持内容连贯性
- 关键帧动画:如ltxv-13b-i2v-keyframes.json,通过关键帧精确控制视频内容变化
- 高级技巧:如tricks/ltxvideo-flow-edit.json,提供视频流编辑和参考帧编辑功能
核心功能模块包括:
- LTXVImgToVideoAdvanced:图像转视频核心节点,支持设置分辨率、时长等参数
- STGGuiderAdvanced:动态控制扩散模型去噪过程,优化视频生成质量
- LTXVLatentUpsampler:潜在空间 upscale,提升视频分辨率
- LTXVFilmGrain:添加电影质感颗粒,增强视频真实感
快速开始:基础工作流使用
1. 环境准备与安装
首先确保已安装ComfyUI,然后通过以下命令获取项目:
git clone https://gitcode.com/GitHub_Trending/co/ComfyUI-LTXVideo
将项目文件夹复制到ComfyUI的custom_nodes目录下,重启ComfyUI即可加载插件。
2. 加载基础模板
启动ComfyUI后,点击"Load"按钮,导航至example_workflows/ltxv-13b-i2v-base.json加载基础图像转视频模板。
此模板默认配置:
- 分辨率:768x512
- 帧率:24fps
- 基础模型:ltxv-13b
- 采样器:euler_ancestral
3. 关键参数设置
在工作流中主要需要设置以下参数:
图像输入:双击"LoadImage"节点,选择本地图片或使用示例图片example_workflows/low_level/shrek2.jpg
提示词设置:在"CLIPTextEncode"节点中输入:
- 正向提示词:"a green ogre talking, animated movie style, high quality"
- 负向提示词:"low quality, worst quality, deformed, motion artifacts"
视频参数:在"LTXVImgToVideoAdvanced"节点设置:
- width/height:视频分辨率(建议768x512起步)
- length:视频长度(帧数)
- strength:图像参考强度(0.8-1.0为宜)
4. 执行与预览
点击"Queue Prompt"按钮开始生成,生成的视频可在"VHS_VideoCombine"节点预览。基础工作流结构如下:
graph LR
A[LoadImage] --> B[LTXVImgToVideoAdvanced]
C[CLIPTextEncode] --> D[LTXVConditioning]
D --> E[STGGuiderAdvanced]
B --> F[SamplerCustomAdvanced]
E --> F
F --> G[VAEDecode]
G --> H[VHS_VideoCombine]
高级应用:模板定制与优化
提升视频质量的关键技巧
1. 分阶段生成策略
使用"两步法"提升视频质量:
- 先用低分辨率(如768x512)生成基础视频
- 使用ltxv-13b-upscale.json模板进行 upscale 到1080p或更高
关键节点设置:
- LTXVLatentUpsampler:选择 upscale 模型,建议使用"ltxv-spatial-upscaler"
- LTXVAdainLatent:设置factor=0.25,保持原始风格同时提升分辨率
2. 添加电影质感
通过以下步骤为视频添加电影质感:
- 在工作流中添加"LTXVFilmGrain"节点
- 连接"VAEDecode"输出到该节点输入
- 设置参数:
- grain_intensity:0.01-0.05(建议0.02)
- saturation:0.5-1.0(建议0.7)
效果对比:
- 原始输出:清晰但略显平淡
- 添加电影颗粒后:更具胶片质感和层次感
3. 关键帧动画制作
使用ltxv-13b-i2v-keyframes.json模板制作关键帧动画:
- 在"LTXVConditioning"节点设置多个关键帧提示词
- 每个关键帧格式:
[frame_index]prompt例如:[0]ogre standing,[12]ogre raising hand,[24]ogre speaking - 调整"frame_rate"参数控制动画速度
关键帧动画原理:
timeline
0 : 初始姿势
12 : 抬手动作
24 : 说话表情
36 : 结束姿势
实战案例:从图片到短视频
以下是使用example_workflows/ic_lora/ic-lora.json模板制作机器人行走视频的完整流程:
1. 准备工作
- 参考图片:example_workflows/ic_lora/robot.png
- 输出视频:example_workflows/ic_lora/man_walking.mp4
- LoRA模型:确保已安装IC-LoRA模型
2. 工作流配置
- 加载模板后,替换"LoadImage"节点的图片为机器人图片
- 在"LTXVImgToVideoAdvanced"节点设置:
- length: 120(5秒视频@24fps)
- strength: 0.85(保留原图特征同时允许运动)
- 在"CLIPTextEncode"节点设置提示词: "a robot walking forward, metallic body, cyberpunk style, smooth animation"
3. 高级优化
- 添加"LTXVFilmGrain"节点,强度0.015
- 在"STGGuiderAdvanced"节点选择预设"13b Balanced"
- 使用"LTXVAdainLatent"节点融合参考视频的运动特征
4. 生成与导出
点击"Queue Prompt"开始生成,完成后在"VHS_VideoCombine"节点:
- 设置"filename_prefix"为"robot_walking"
- 选择格式为"video/h264-mp4"
- 点击"Save"导出视频
常见问题与解决方案
问题1:视频生成速度慢
解决方案:
- 使用FP8模型:加载ltxv-13b-i2v-base-fp8.json模板
- 减少帧数:在"LTXVImgToVideoAdvanced"节点降低length参数
- 降低分辨率:尝试512x384起步
问题2:视频出现闪烁或抖动
解决方案:
- 调整"STGGuiderAdvanced"节点参数:增加stg_scale值
- 使用looping_sampler.py中的循环采样器节点
- 启用"LTXVAdainLatent"节点,提升帧间一致性
问题3:显存不足
解决方案:
- 使用分块采样:加载tiled_sampler.py中的分块采样节点
- 降低batch_size:在"LTXVImgToVideoAdvanced"节点设置为1
- 使用q8_nodes.py中的量化模型支持节点
高级技巧与资源推荐
资源拓展
- 官方文档:项目README.md提供基础使用说明
- 预设文件:presets/stg_advanced_presets.json包含多种STG预设
- 示例素材:example_workflows/chimpanzee.webp和example_workflows/depth-surfing.mp4提供测试素材
高级工作流组合
-
多提示词视频:使用ltxv-13b-i2v-long-multi-prompt.json模板,实现视频中不同时段使用不同提示词
-
深度控制视频:使用ltxv-13b-v2v-long-depth.json模板,结合深度信息控制视频场景变化
-
混合尺度生成:使用ltxv-13b-i2v-mixed-multiscale.json模板,动态调整不同时段的生成尺度
自定义节点开发
如需扩展功能,可参考项目源码结构:
- 节点注册:nodes_registry.py
- 核心逻辑:latents.py和guide.py
- 特效处理:film_grain.py和masks.py
总结与下一步学习
通过本文介绍的工作流模板,你已掌握从图片生成专业级视频的基本方法。建议下一步:
- 尝试不同模板组合,探索适合特定场景的最佳配置
- 调整STG参数,深入理解其对视频质量的影响
- 研究tricks/目录下的高级技巧模板,拓展创作可能性
ComfyUI-LTXVideo提供了强大而灵活的视频创作工具,通过模板快速上手,再逐步深入参数调优和自定义开发,你将能够实现从简单视频生成到专业级视频创作的跨越。
祝你创作愉快!
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00
