04
改图与风格统一
改图与风格统一:从“抽卡”到“精准控制”
在 AI 内容创作的工作流中,改图(Image Editing)的频率往往高于初次生成。改图的核心目标是:在保留大部分已有元素的基础上,对局部进行精准修正或延展,并确保视觉风格的一致性。
什么是 AI 改图?
AI 改图不再是像 Photoshop 那样手动调整像素,而是通过“蒙版+指令”或“参考图”告诉 AI:哪里需要变,哪里需要保持不动。
┌─────────────────────────────────────────────────────────────┐ │ 改图的三大核心逻辑 │ ├─────────────────────────────────────────────────────────────┤ │ │ │ 1. 局部重绘 (Inpainting) → 变脸、换装、去杂物 │ │ 2. 构图延展 (Outpainting) → 1:1 变 16:9、补全背景 │ │ 3. 风格迁移 (Style Transfer) → 照片变动漫、草图变 3D │ │ │ └─────────────────────────────────────────────────────────────┘
核心技术 1:局部重绘 (Inpainting)
这是最常用的功能。你可以选定图片的某个区域(蒙版),然后输入新的 Prompt 替换该区域的内容。
- Midjourney 工具:
Vary Region(局部变化)。 - Stable Diffusion 工具:
Inpaint(重绘)。 - 技巧: 选区不要太小(建议占画面的 20%-50%),这样 AI 才有足够的上下文来融合新旧内容。
核心技术 2:构图延展 (Outpainting)
当你发现生成的图比例不对,或者主体太靠边时,可以使用扩图功能。
- Zoom Out (缩放): 在 Midjourney 中,
Zoom Out 2x会保持主体不变,生成周围更多的环境。 - Pan (平移): 向左、右、上、下延伸画面。
- Custom Zoom: 可以修改 Prompt 来引导新生成的区域出现特定元素。
核心技术 3:一致性控制 (Consistency)
这是 AI 创作中最难的部分。如何让同一个角色在不同的图里长得一样?
| 方法 | 说明 | 适用工具 |
|---|---|---|
| 种子值 (Seed) | 固定随机噪声的起点,生成相似构图的图 | MJ, SD, Flux |
| 风格参考 (SREF) | 使用 --sref [URL] 复刻参考图的色彩、线条和氛围 | Midjourney |
| 角色参考 (CREF) | 使用 --cref [URL] 保持人物脸型、发型和基本特征 | Midjourney |
| LoRA 模型 | 针对特定画风或人物进行微调的模型 | SD, Flux |
场景示例 1-3
示例 1:为产品图更换背景(局部重绘)
- 原始图: 一瓶放在办公室桌子上的香水。
- 操作: 选中除香水瓶以外的所有区域(背景蒙版)。
- 新 Prompt:
A luxury marble stand in a lush tropical garden, soft sunlight, blurred plants in the background. - 结果: 香水瓶保留原样,但环境瞬间切换到了热带花园。
示例 2:将头像扩展为全身照(构图延展)
- 原始图: 一张精致的人像近景特写(1:1)。
- 操作: 使用
Zoom Out 2x或向下方Pan。 - Prompt:
Full body shot, wearing a silk dress, standing on a cobblestone street in Paris. - 结果: AI 会根据人像风格补全衣服和下半身场景。
示例 3:手绘草图变商业插画(风格迁移)
- 原始图: 简单线条勾勒的建筑草图。
- 操作: 使用
Img2Img模式,将图片权重(Image Weight)调高。 - Prompt:
Ultra-modern skyscraper, glass and steel architecture, sunset reflections, 8k, architectural render style. - 结果: 线条结构被保留,但材质和光影变成了真实渲染图。
常见问题与解决方案
| 问题 | 原因 | 解决方案 |
|---|---|---|
| 边缘衔接生硬 | 蒙版边缘过于突兀 | 扩大选区范围,或使用 "Soft Inpaint" 功能 |
| 风格越改越乱 | Prompt 过于复杂 | 改图时仅描述“变化部分”,减少修饰词干扰 |
| 扩图后主体变形 | AI 失去了中心焦点 | 逐步扩图(先 1.5x 再 2x),不要一次跨度太大 |
| 角色变脸 | 随机性太强 | 使用固定 Seed 或 CREF 参数锁定特征 |
进阶技巧:指令改图 (Instructional Editing)
在一些新型模型(如 Pix2Pix 或 ChatGPT 内部集成)中,你可以直接说:
- "Make the background darker." (让背景变暗)
- "Change the cat into a dog." (把猫变成狗)
- "Add a hat to the person." (给那个人加顶帽子)
这种方式不需要蒙版,但对模型的指令遵循能力要求极高。
动手练习
- 去杂物训练: 找一张背景杂乱的风景图,尝试用
Vary Region去掉干扰元素(如电线杆或垃圾桶)。 - 场景迁移: 生成一张室内人物图,然后通过
Zoom Out将场景扩展到室外阳台。 - 一致性实验: 尝试用一张你自己的照片作为
--cref,生成一张你正在火星探险的图片。
相关阅读
小结
- 改图是二次创作: 重点在于控制变量(控制不变,精准变)。
- 蒙版是灵魂: 蒙版的范围和 Prompt 的简洁程度决定了融合度。
- 参数锁死特征: Seed, SREF, CREF 是保持“专业感”的三驾马车。
- 小步快跑: 复杂的改动分多次进行,每次只改一个点。