说实话,在真正使用AI绘画工具之前,我是有些抵触的。
作为一个半路出家的设计爱好者,我花了很长时间学习构图、色彩、光影。每当看到那些精美的AI生成图片,心里总有种说不出的复杂——技术进步带来的,究竟是创作的解放,还是对传统创作方式的冲击?
直到两个月前,因为一个项目急需配图,我抱着试试看的心态,打开了通义千问的“文本生成图像”功能。
那一天,我输入了人生中第一条提示词:
“一只猫坐在月亮上,星空背景,水墨风格”
十几秒后,四张图片出现在屏幕上。
我盯着那四张图看了很久。不是惊叹于它有多完美——事实上第一版的猫画得像一只毛茸茸的土豆。我惊讶的是,它真的理解了我的意图,而且中文字符竟然没有乱码。在千问之前,我试过好几款海外AI绘画工具,生成带中文的图片时,画面里的汉字要么是乱码,要么是一团无法辨认的墨迹。但千问交出来的画面里,水墨风格的“星空”二字清晰可辨。
那一刻我意识到:这不再是简单的“生成图片”,这是真正能看懂中文的对话式视觉创作。
用了两个月,我对千问的图像生成模型有了不少体会。
首先是超长的提示词容量。 Qwen-Image-2.0支持1K token的超长文字输入,也就是说你可以把想法写得非常详尽,它都能准确执行。比如我想生成一张带详细菜谱的美食海报,只需要把食材清单和烹饪步骤全部写进去,它都能精准呈现在图片中。这在之前的AI绘画工具里几乎不敢想——稍长一点的提示词就会被截断。
然后是中文渲染能力。 这是千问最让我惊喜的地方。它不仅能准确渲染汉字,还能以多种字体呈现。官方实测,数百字的古文全文几乎都能完全渲染在图片中。写繁体字、竖排版,甚至书法字体,都能比较稳定地出效果。我试着用它生成了一张带有楷体书法字的古风海报,出来的效果比我预想的还要好。
还有原生2K分辨率。 直出2048×2048像素的高清图片,皮肤毛孔、织物纹理、自然植被这些微观细节都能呈现出来。我拿来做了一些产品展示图,放大看细节的时候,确实能感受到那种“零AI味”的真实感——发丝的走向、皮肤的肌理,都相当自然。

1. 提示词要“四段式”
用千问这段时间,我摸索出一套高效的结构:“主体+环境+风格+细节” 。
比如要生成一张“森林里的老房子”:
- 第一轮:只写主体 —— “森林里的老房子”
- 第二轮:加环境与风格 —— “深秋森林里的老石头房子,晨雾弥漫,柔和晨光从树冠缝隙洒下,电影感色调”
- 第三轮:精修细节 —— 加上“居中构图,前景草地略微虚化,画面左侧有一棵粗壮的老橡树”
每一轮都有明显进步。提示词不是一次写死的,而是在和千问的“对话”中逐步完善的。
有一个实用的技巧:直接用自然语言描述位置关系。千问的MMDiT架构能自动解析语义结构,知道谁该在C位、谁只是氛围组。比如你想让主体靠左,可以试试“左侧构图”或“主体偏左”——实验数据显示,加入明确的空间关键词后,元素定位准确率提升超过60%。
2. 负面提示词同样重要
这个教训来自一次翻车。
我想生成一张“雨天咖啡馆窗户”的图片,结果千问不知为何在画面角落加了一个模糊的人影。我删掉提示词重新生成,人影还在。
后来我学会了使用负面提示词。千问支持输入“避免出现人物”“不要现代建筑”等排除项。加上“no people, no figures”之后,问题立刻解决了。
负面提示词就像是给AI画了一条边界线——告诉它哪里不能去,比告诉它去哪里有时更管用。
3. 多轮迭代比一次性输出更有效
刚开始我总希望一次就生成完美图片,结果往往是在一个错误的方向上反复调整,浪费了大量时间。
千问的响应速度还算快,通常15-30秒就能返回4张候选图像。我现在的工作流是:先快速生成多个版本,选最好的方向,再精修。比如我会先调低一些参数,生成4-8张预览图,从中选出构图最舒服的一张,然后再针对性调整提示词、提高细节要求,最终生成高清版本。
整个过程可能不到10分钟,但效率比以前高太多了。
这段时间,我用的是千问APP的免费生图功能。通义千问的图像生成集成于核心平台,支持网页端与移动端同步操作。目前在千问APP上,生图功能直接免费不限次数,用起来完全没有心理负担。
如果需要更专业的控制,也可以使用阿里云百炼的API,或直接魔搭社区下载开源模型部署。
值得一提的是,千问不止能生图,通义万相系列还支持文生视频、图生视频等功能,可以实现音画同步的视频生成。不过目前我还在图像生成阶段深耕,视频能力准备后面再慢慢摸索。
用千问文生图这段时间,有几个意料之外的收获:
第一,它让我更敢画了。 以前总担心自己“不会画画”,现在只要把想法描述出来,千问就能帮我实现。这个过程反过来给了我信心——原来我的审美和想象力,本身就是一种创作能力。
第二,它极大地解放了我的生产力。 现在我做设计前,会先用千问生成10-20张参考图,快速探索各种风格方向,而不是直接钻进一个方案里死磕。AI负责发散,我负责收敛——这个分工很舒服。
第三,它让我重新理解了“中文创作”。 以前用海外AI工具,总感觉有种隔阂——写英文提示词效果最好,但英文不是母语,很多细微的表达差异很难把握。千问能用中文思考、用中文创作,这种母语级别的掌控感,是海外工具给不了的。
当然,学习过程也不是一帆风顺的。
最头疼的问题是一致性。同一个提示词,生成了四张图,每一张角色、场景都长得不一样。想保持一致性,需要反复调试提示词。千问在角色一致性上已经有了一些进步——Wan2.7-Image支持多图多主体一致性增强,但要真正做到稳定控制,还需要更多练习。
另一个问题是精确构图。想让AI精确地按照你的构图来画,比如“猫在左边偏下的位置,月亮在右上角”,目前还很难做到。你只能描述,不能“画”。这是语言描述和视觉表达之间天然的鸿沟。
不过话说回来,这些“不完美”反而让AI绘画变得有趣——你永远不知道它会给你什么惊喜。
有人担心AI会取代画师、取代设计师。
我的看法恰恰相反。AI绘画不会让创作者失业,但会用AI的创作者,可能会让不会用的创作者“失业” 。
这不是内卷,这是工具迭代的自然结果。就像当年数码摄影没有杀死绘画,而是让摄影成为一门独立的艺术;计算器没有杀死数学,而是把人从繁琐计算中解放出来。
千问文生图也一样。它把我们从技术执行中解放出来,让我们有更多精力去思考:我想表达什么?什么样的画面能打动人? 尤其是它强大的中文理解和渲染能力,让我觉得——作为一个中文创作者,终于有了真正属于自己的AI绘画工具。
这些,才是创作真正的内核。
而我,还在学习的路上。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/269061.html