了解我如何使用 Midjourney 的 Omni-Reference(全域参考)功能,通过简单的两阶段方法,在不同场景中创建出外观一致的角色。这套策略彻底革新了我的工作流程,也能让你的作品效果显著提升。
Midjourney V7 中推出了一项强大的新功能叫做 Omni-Reference(全域参考)。你可以把它理解为在告诉 AI:“请把这个具体的角色/物体放入我的图片里”。和影响整体风格的参考图不同,Omni-Reference 会保留你指定对象的精确视觉特征,同时适应新的场景环境。
主要优势:
- ✅ 跨不同画面保持人物一致性
- ✅ 支持角色、物件、车辆及生物等元素
- ✅ 可与其他参数(如风格参考等)共用
- ✅ 可调节权重值(0–1000,默认为100)
刚开始使用 Omni-Reference 时,我遇到了一个令人头疼的问题——生成的结果时常不完全符合预期。让我以最近创作一个可爱“人猿混合”角色放在不同元素环境中为例说明:
第一次尝试(第1阶段):

由 EJ Yao 使用 Midjourney V7 新版 Omni-Reference 生成
结果只能说「还可以」。但角色并没有真正实现「跳跃漂浮」的动作要求。主要是因为参考图像与文本描述之间没有完全对齐,影响了最终结果。
经过多次试验后,我总结出「双阶段引用策略」:
第一阶段:初步生成
- 提供基本提示词 + 所需参考图像;
- 接受初期结果未必完美;
- 生成四张变体版本(Midjourney 默认输出数量);
- 选出最接近预期的一张成果进行下一阶段优化。
第二阶段:精准优化
- 将第一阶段的**画作作为新一轮 Omni-Reference;
- 再运行一次相同或稍加调整的提示词;
- 享用大幅提升后的高质量成果!
如下是一个成功案例的具体指令:

由 EJ Yao 依上述设定利用 Midjourney V7 建立
我通过这套两阶段流程在以下五大环境中创建同一角色形态:
- 🏜️ 沙漠/峡谷场景
- 🌲 森林场景
- ✨ 黄金洞窟场景
- 🔥 烈焰燃烧氛围
- 🌊 水下漂浮世界
第1阶段产出: 角色存在但未完全体现“漂浮动态”。
第2阶段改进: 使用上轮**图像再训练后,在所有场景中都达到了飘逸灵动的理想状态。
需掌握的关键参数
Omni-Weight ():
- 第1阶段建议设在80~90区间
- 第2阶段可维持相近数值甚至略提高至200~400
- 根据想要模型多严格遵循参考图像灵活调整
风格化 vs 全域参考权衡:
注意 和 两个命令会干扰 Omni-reference 效果。若启用高度艺术化,则须相应增大 ow 值来对抗样式竞争:
例如:
- 避免过度描述细节: 把关键形象特征交给参考图处理就好。
- 保持参数一致性: 整个系列图像尽量使用统一设置。
- 挑选优质样本: Stage 1 成果选那些特征最明显清晰的。
- 专注场景变化: 提示词重点描述周围环境而非重复强调人物外表。
采用这套双阶段流程后,我已经完整呈现五大自然元素主题下的角色表现,并具备以下共同优点:
以下是部分作品片段摘录(提示词结构略):
森林深处漂浮角色 ➜

金色洞窟探险 ➜

火焰中心站立 ➜

水下自由飘移 ➜

这套双阶段引用机制彻底改变了我在 Midjourney 平台上的角色制作思路。以前需要成百上千次迭代才能得到理想画面的操作,如今只需两次尝试即可完成。重要的是明白:初次未必完美,后续才渐入佳境 —— 持续精修才是王道!
准备好自己动手试试了吗?从一个简单提示开始,实践两阶段流程,你的AI艺术技能将突飞猛进!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/220939.html