本文介绍在
实践环境:
- Windows 11
- ComfyUI v0.2.4
- stable-video-diffusion-img2vid-xt
一、前期准备
ComfyUI 是一个为 Stable Diffusion 专门设计的基于节点的图形用户界面,完全支持
节点式工作流广泛存在于各种生产力工具中,例如开源 3D 创作软件 Blender、实时 3D 创作软件 Unreal Engine、音视频制作软件 DaVinci
等。 ComfyUI 安装成功后直接可以使用一系列基础的原生节点,它们为用户提供了广泛的功能和工具。用户还可以根据自己的需求开发自定义节点,以创建高度定制化的工作流,实际上社区成员已经贡献了许多个自定义节点,可以直接套用。
正好看到一个 Flux Dev 8 步肖像工作流,可以前往链接测试一下您对节点式工作流的喜欢程度
Flux Dev De-Distilled Ultra Realistic + Detailed Portraits At Only 8 Steps Turbo - rgthree-comfy——Making ComfyUI more comfortable!
- Exaflop Labs:Flux Watermark Removal Workflow
如果您希望使用图像生成模型,建议使用SwarmUI,它是一款
WebUI 框架,使用了 ComfyUI 引擎。
在ComfyUI_windows_portable_nvidia.7z
(v0.2.4),可以在 Nvidia GPU 上运行,或者仅在您的 CPU 上运行。当您阅读至此时,ComfyUI Desktop 测试版已可供用户使用(ComfyUI Desktop User Guide)。
下载后直接解压即可。
运行run_cpu.bat
run_nvidia_gpu.bat
http://127.0.0.1:8188/
2.
Stable Video Diffusion(SVD)是一种基于
您可以直接下载ComfyUI/models/checkpoints
ComfyUI\models\diffusion_models
)。
也可以在
在Manager
,选择Custom Nodes Manager
,搜索svd
,选择ComfyUI-SVD
再次在Manager
,选择Model Manager
,搜索svd
。根据您的显卡性能选择适合的模型版本,14 帧:Stable Video Diffusion Image-to-Video
或 25 帧:Stable Video Diffusion Image-to-Video (XT)
。
二、使用 Stable Video Diffusion
1.
这里我们使用
2.
首先,在 ComfyUI 中的 Checkpoint Loader(模型加载器)中选择根据所需的帧数选择合适的模型。

在 Load Image(图片加载器)中单击 choose file to upload(选择文件上传)要转换为视频的图像。确保图像分辨率对应自己下载的模型(默认值可能是
虽然SVD 可以处理各种图像,但建议选择动作不太复杂的简单图像。具有清晰运动的图像(例如火箭起飞或火车沿轨道行驶)通常会产生更好的效果。尝试不同的图像类型,以揭示 SVD 的全部潜力。
3.
上传图像后,我们将会看到 video frames(视频帧数)、motion bucket(运动桶)、frames per Second(每秒帧数)和 augmentation level(增强级别)等选项。
- 视频帧数可以设置为 14 或 25,具体取决于选用的模型。
- 运动桶决定了视频中运动发生的速度。值越高,运动越快;值越低,运动越慢。
- 每秒帧数应保留默认值。
- 增强级别控制视频中的动画和细节级别。更高的增强级别会为背景和细节添加更多的运动和复杂性。
点击Queue Prompt
ComfyUI\output
参考指南
ComfyUI + Stable Video Diffusion
👍
楼主残忍的关闭了评论