启用cref指令可解决Midjourney角色形象不一致问题:需使用V6/NIJI6模型,上传单主角Midjourney生成图的直链URL,配合--cref和--cw参数调控特征锁定强度,支持多图融合与网页版可视化操作。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您在使用 Midjourney 生成系列图像时发现角色外观频繁变化,无法维持统一形象,则可能是未正确启用角色特征锚定机制。以下是实现角色一致性的具体操作路径:
一、理解 cref 指令的基本原理
cref(Character Reference)指令是 Midjourney V6 及 NIJI 6 模型专用于稳定类人角色视觉特征的核心参数。它通过分析参考图中的人物面部结构、发型轮廓与服装基本形制,在新生成图像中复现可识别的主体一致性,而非像素级复制。该机制仅对 Midjourney 自身生成的插画类角色图像效果最优,不适用于真实人物照片或复杂多角色构图。
1、确保所用模型为 V6 或 NIJI 6,V5 及更早版本不支持 cref 功能。
2、准备一张由 Midjourney 生成的、单主角居中构图、无遮挡面部的图像作为参考源。
3、将该图像上传至公开可访问图床,获取直链 URL(如 https://s.mj.run/abc123.jpg)。
二、基础 cref 使用方法
此方法适用于需保持角色整体外观(脸+发型+服饰)高度相似的场景。默认强度下 cref 同时作用于面部识别、发丝走向与衣着剪裁逻辑,适合构建固定角色设定下的多场景延展。
1、在 /imagine 命令末尾添加空格后输入 --cref,再加一个空格,粘贴参考图 URL。
2、完整格式示例:/imagine a knight standing on a castle balcony at sunset --cref https://s.mj.run/abc123.jpg --v 6.1。
3、提交后,系统将自动提取参考图中角色的关键几何特征并融入新提示词语义空间。
三、使用 --cw 调节参考强度
--cw(Character Weight)参数控制 cref 对生成结果的影响权重,数值范围为 0 至 100。调节该值可实现角色核心特征与新创意表达之间的动态平衡。
1、设置 --cw 100:默认强度,同时锁定面部、发型、服装三要素,适合复刻同一角色在不同动作/环境中的表现。
2、设置 --cw 50:中等强度,保留面部辨识度,允许发型与服装发生合理风格化偏移。
3、设置 --cw 0:仅锚定面部骨骼结构与五官比例,完全放开发型、服饰、配饰、妆容等变量,适用于为固定角色更换全套造型。
四、混合多图 cref 实现特征融合
当需要合成多个角色的标志性特征(例如 A 的眼睛 + B 的发型 + C 的制服)时,cref 支持并列输入多个 URL,系统将对各图的角色区域进行加权特征提取,而非简单拼接。
1、获取三张分别突出不同特征的 Midjourney 生成图 URL。
2、在提示词后输入 --cref URL_A URL_B URL_C,URL 之间以单个空格分隔。
3、可同步附加 --cw 参数统一调控整体影响强度,例如 --cref https://a.jpg https://b.jpg https://c.jpg --cw 80。
五、网页 Alpha 版本可视化操作流程
在 Midjourney 官方网页测试版中,无需手动构造 URL 参数,可通过图形界面直接指定角色参考来源,降低语法错误风险。
1、进入 imagine 输入栏,拖入或粘贴角色参考图。
2、图片上传后,输入栏上方出现三个图标:左侧为图像提示(img prompt),中间为风格参考(sref),右侧为角色参考(cref)。
3、点击 cref 图标(红框内第一个),该图即被标记为角色特征源。
4、在输入栏中键入文字描述,例如 “a wizard casting fireball in forest”,回车执行生成。










