2026 最新 ComfyUI 教程 - 本地部署 AI 生图模型 - Z-Image-Turbo

2026 最新 ComfyUI 教程 - 本地部署 AI 生图模型 - Z-Image-Turbo本文是用于演示通过 工具 部署 AI 生图模型到电脑的教程 官方说 Z Image Turbo 模型是 Z Image 的精炼版 能在配置为 16GB GPU 显存 VRAM 中舒适运行 我的电脑显存为 8GB 但是 CPU 内存 RAM 有 32GB 当显存满了后可以适当找 CPU 借用内存 只是会显著降低速度 总的来说跑 Z Image Turbo 模型基本还算流畅

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



本文是用于演示通过 工具,部署 AI 生图模型到电脑的教程

官方说 Z-Image-Turbo 模型是 Z-Image 的精炼版,能在配置为 16GB GPU 显存(VRAM)中舒适运行。我的电脑显存为 8GB,但是 CPU 内存(RAM)有 32GB(当显存满了后可以适当找 CPU 借用内存,只是会显著降低速度),总的来说跑 Z-Image-Turbo 模型基本还算流畅

主要是在线模型要么收费贵了,要么每日扣嗖嗖的限额次数以及排队令人嫌弃,所以我打算自己部署开源模型到本地,自己随便跑,不花钱又无限制,爽歪歪

果然想挣咱程序员的钱是挺难的哈

周末抽空研究了下本地部署 AI 生图,发现 B 站 ComfyUI 相关的教程虽然多,不过都太罗嗦,并且演示的 ComfyUI 版本过于落后,我也不知道这些 up 为啥清一色的让人安装 git 和 python,并且 git 还非要配置什么环境变量,完了我也没有看到他们在哪里有用到 git 的操作(估计自己也不懂),而且基本全是 up 在评论区提供各种网盘安装包的(你敢提供我还不敢用呢,就不能老老实实提供正经的官网安装方式吗?)

还有 ComfyUI 官方文档也不与时俱进的更新,文档估计都是前几个版本的

先给大家看演示效果

cover1.png

cover2.png

上面的图片都是 Z-Image-Turbo 生成的!太惊艳了!有木有!!!

本来我是打算直接从 github 仓库下载模型部署的

后来了解到 ComfyUI 这玩意已经很成熟了,是目前 AI 圈最火的声明式可视化 Pipeline 编排工具(图形界面)

ComfyUI 内置了许多 AI 模板,我们可以直接使用

它把模型的加载、Clip 编码、采样器、VAE 解码等逻辑封装成了节点(Nodes)。

我们只需要把精力放在使用模型上

大大节约我们的时间和提升工作的效率

官网地址:docs.comfy.org/zh-CN

推荐大家下载 , 便携版是一个独立封装完整的 ComfyUI Windows 版本,内部已经整合了 ComfyUI 运行所需的独立的 Python(python_embeded),无需单独安装 Python 环境

1.png

并且便携版是免安装版本,下载后只需要解压即可使用

双击 启动 ComfyUI

2.png

,因为这个版本是用你的 CPU 跑模型(CPU 的强项是逻辑运算,让它跑 AI 会瞬间满载,发热量巨大,而且速度比显卡慢几十倍甚至上百倍)

run_nvidia_gpu.bat 才是让 GPU 跑模型,别问我是怎么知道的

3.png

图片中是我错误的选择了显卡模式为智能,并且用 run_cpu.bat 启动 ComfyUI 运行生图功能的结果,右上角任务进度条是 0,CPU 都快撑爆了,并且温度也快到达极限,风扇狂转。可是 GPU 却不动如山,事不关己高高挂起,现在回顾感觉又好笑又好气是怎么回事 😂

属于 deBuff 拉满了

默默吐槽一下 ComfyUI 官方文档不把 run_cpu.bat 和 run_nvidia_gpu.bat 的区别写清楚,就这两句话谁看懂是个啥意思

4.png

运行成功后 ComfyUI 会自动打开你的默认浏览器并访问 http://127.0.0.1:8188 地址

5.png

6.png

注意:使用过程中请不要关闭对应的命令行窗口,否则 ComfyUI 将会停止运行

如果你是首次双击 run_nvidia_gpu.bat 启动的话,大概率会碰到这个情况

7.png

提示我需要更新显卡驱动啦

如果有新版本,它会显示一个巨大的 “下载” 按钮

点击下载

8.png

下载完成后,按钮会变成 “安装”,点击安装

9.png

安装过程中屏幕可能会黑几秒,那是正常的,别紧张。

10.png

11.png

12.png

现在安装成功了

然后重新双击 即可启动 ComfyUI

操作步骤:模板 -> 所有模板 -> 输入框输入 Z-Image-Turbo -> 点击第一个

13.png

如果 ComfyUI 未找到对应的模型会提示下载,并显示缺少的模型以及文件大小

14.png

如果没开启梯子的话,模型的文件大小会变成问号

15.png

说明什么,说明如果直接点击下载的话,是需要花费你的梯子流量的,别问我是怎么知道的/(ㄒ o ㄒ)/~~

如果你现在挂着梯子的话,

当然,聪明的我立马想到了对策

下面教大家如何用国内流量下载模型

点击 按钮,获取到需要下载的三个模型原始的下载链接:

  • z_image_turbo_bf16

    huggingface.co/Comfy-Org/z…

  • qwen_3_4b

    huggingface.co/Comfy-Org/z…

  • ae

    huggingface.co/Comfy-Org/z…

在国内可以通过下载模型,需要把前面的域名进行更换:将更换为

以下是需要下载的三个模型国内的下载链接:

  • z_image_turbo_bf16

    modelscope.cn/models/Comf…

  • qwen_3_4b

    modelscope.cn/models/Comf…

  • ae

    modelscope.cn/models/Comf…

我已给你转换好了直接用浏览器打开即可下载

16.png

不用在意那个(1),是因为我本地已经下载过了,你们首次下载的文件名是不会多这个值的

下载完后将模型文件放在到对应的文件夹,对应的文件夹在哪里?官方文档没写清楚,我自己摸索搞懂的

14.png

从前面提示下载模型的界面可以找到线索

z_image_turbo_bf16.safetensors 模型要放在 diffusion_models 文件夹

qwen_3_4b.safetensors 模型要放在 text_encoders 文件夹

ae.safetensors 模型要放在 vae 文件夹

准备工作搞了这么久,现在让我们开始生成图片吧!

操作步骤:模板 -> 所有模板 -> 输入框输入 Z-Image-Turbo -> 点击第一个

13.png

输入提示词:生成一只可爱的小猫咪在户外玩耍,点击运行

tip: 分辨率可以先调低一点,跑通后再根据你的显卡配置慢慢提高

17.png

不出意外的话会报错,因为我们没有连接图片节点

18.png

将左侧的蓝色小圆点拖动到右侧即可连接

19.png

连接成功,点击运行,右侧进度条跑完后图片就会生成

20.png

在 ComfyUI 左侧菜单栏点击资产,可以看到当前生成的图片,喜欢的话就点击下载

21.png

也可以直接去 ComfyUI 安装目录找,所有生成的图片都在 目录下

路径为:“你的 ComfyUI 安装目录”/ComfyUI/output

22.png

到底为止,我们已经成功使用 Z-Image 生成图片啦,但是你把提示词变复杂了就会发现,可能效果不是那么令人满意

那是因为我们只是使用的最简单的工作流,是为了快速验证 AI 模型部署成功

下面我们使用 ComfyUI 官方提供的 Z-Image Turbo 示例工作流

comfyanonymous.github.io/ComfyUI_exa…

打开链接,保存图片

23.png

将下载的图片直接拖入 ComfyUI 中即可加载 Z-Image Turbo 示例工作流

24.png

查看运行后的效果,在资产里面还可以看见生图的耗时,比小猫咪还快一些也

25.png

并且中文也没有乱码!这一点是非常棒的!

tip:所有用 ComfyUI 生成的图片,都会带有 metadata 信息,这些信息会包含图片的 workflow 信息,你可以通过这些信息来加载对应的 workflow。

默认只能通过 http://127.0.0.1:8188/ 地址启动 ComfyUI 服务

很明显,这是本机才能访问的ip,那如果我想用另一台电脑或者手机访问ComfyUI服务怎么办呢?

记事本打开 run_nvidia_gpu.bat 脚本文件,末尾加一个参数 --listen 0.0.0.0

 
  

它告诉 Python 监听机器上所有的网络接口,而不仅仅是 127.0.0.1。

保存后重启就可以通过局域网 ip + 8188 端口进行访问了

人像生成功能真的太强了,足以以假乱真了 😂

cover1.png

这是提示词

 
  

另外给大家分享 github 提示词合集:github.com/camenduru/a…

宝藏仓库!目前为止有一百个 Z-Image-Turbo 生图的提示词,并且有 Z-Image-Turbo,Gemini 和 GPT-4o 三者用同一个提示词生成的效果对比!

26.png

这个功能我还没试过,大家自行研究吧,完了能告诉我反馈效果最好哈哈哈

27.png

地址:huggingface.co/spaces/Tong…

考虑到有的朋友可能无法访问 huggingface,所以我贴心的把内容复制下来了

 
  

在开始之前,总结一下能做的优化操作

  1. :确保电源适配器已插好(不插电跑 AI,性能会缩水)
  2. :需要将显卡模式调整为独显,只有调整之后你的显卡才算生效了,否则就是在消极怠工。不同电脑的界面和调整方式不同,自行搜索如何调整
  3. : 按 win 键 -> 搜“编辑电源计划” -> “更改高级电源设置” -> “处理器电源管理”。 将 “最大处理器状态”从 100% 改为 99%。这样可以强行关闭 CPU 的自动超频(Turbo Boost),温度能瞬间掉下来 10-20°C,而跑 AI 的速度几乎不受影响。
  4. :笔记本电脑买一个普通的钢质散热架(不用吹风那种),如果没有的话拿两个瓶盖或者两本书垫高凑合用,空气流量增加有助于散热降温
  5. :双击 启动 ComfyUI,千万千万别点 run_cpu.bat
  6. : 先在 ComfyUI 里把 Empty Latent Image 的分辨率降到 512x512。确认能跑通、显存能装下,再慢慢往上提。
  7. :在启动 ComfyUI 的快捷方式(bat 文件)里,加入 --lowvram 参数。它会让 ComfyUI 在加载模型时采用“分片加载”策略,这能让它在 8GB 卡上跑得更顺畅。
  8. :运行模型时,可以调低 批量大小,这有助于减少每次推理或训练时的显存需求。

AI 模型运行时,注意观察 CPU 和 GPU 的温度,如果温度异常请及时关闭运行中的 AI 任务,避免烧坏显卡

硬件 正常区 (AI 渲染中) 警戒区 (需关注) 红线区 (建议停止) CPU (AMD) 75°C - 90°C 90°C - 95°C 100°C + GPU (NVIDIA) 65°C - 80°C 83°C - 87°C 90°C +

先写到这里吧,目前为止的内容已经够 ComfyUI 本地部署 Z-Image-Turbo 入门了

如果有人喜欢的话,过两天我再更新 Z-Image-Turbo 进阶使用教程

小讯
上一篇 2026-04-07 14:02
下一篇 2026-04-07 13:59

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/219074.html