在 4090 上运行 Qwen-Image-Edit-2511 完整指南
💡 为什么 4090 也会"不够用"?
RTX 4090(24G 显存)原样加载 Qwen-Image-Edit-2511 会直接爆显存。这不是你的显卡不行,而是这个模型太"重"了。
原始 FP16 权重超过 18GB,加上 ComfyUI 运行时缓存、采样器开销和图像预处理内存,24G 显存根本扛不住解决方案:量化模型 + 精准路径配置 + 必备依赖补全
- ✅ 使用 Q4_K_M 量化版本,显存占用压到 16.2G
- ✅ 严格路径配置,避免加载失败
- ✅ 补全 mmproj 等关键依赖文件
📋 步骤 1:确认基础环境已就绪
Python 版本3.10-3.12推荐 3.12PyTorch 版本2.3+CUDA 12.1 支持版⚠️ 重要提示:不要用 conda 或虚拟环境套娃。ComfyUI-GGUF 插件对环境敏感,建议使用系统级 Python + pip install 方式安装依赖,避免路径混乱。前置检查清单:
- 已安装 Python 3.10–3.12
- 已安装 PyTorch 2.3+(CUDA 12.1 支持版)
- 已克隆并初始化 ComfyUI 主仓库
- 当前工作目录为 /root/ComfyUI/
📥 步骤 2:下载全部必需模型
所有模型必须严格放入 ComfyUI 对应子目录,路径错一个字母都会加载失败!
2.1 LoRA 模型(修复角色一致性)存
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/258050.html