logo
05

AI 视频生成入门

⏱️ 25分钟

AI 视频生成入门:开启“一人影视公司”时代

AI 视频生成(Video Generation)是目前 AIGC 领域最前沿、最具冲击力的技术。从最初的 2 秒“果冻感”视频,到现在的 4K 电影质感长片段,AI 正在彻底重塑短视频、广告和影视制作的门槛。

🎥 核心认知

  • 动态逻辑: 视频是每秒 24 帧以上的图片,AI 负责生成每一帧并保持一致性。
  • 运镜即导演: 掌握 Pan, Tilt, Zoom 是从“玩家”变“专业导演”的分水岭。
  • 图生视频 (I2V) 为王: 现阶段为了保持画质,通常先用 MJ 生图,再将其动态化。

2025-2026 主流 AI 视频模型全景图

模型名称擅长领域核心参数/功能
Kling (可灵)物理模拟、超长生成支持 2 分钟视频,动作连贯性极强。
Runway Gen-3电影质感、光影控制业内公认的画质巅峰,光影过渡极其细腻。
Luma Dream Machine生成速度、镜头灵活性端到端生成极快,支持“起始帧 + 结束帧”控制。
Pika 2.5创意动效、特定风格独特的 Pikaffects (挤压、融化等物理特效)。
Hailuo (海螺)真实感、人脸稳定性对人脸细节的还原非常出色。

AI 视频生成的三个实战模式

1. 文生视频 (Text-to-Video / T2V)

场景: 概念片、抽象背景、梦境风格。

  • 缺点: 角色长相难以预测。
  • 技巧: 使用“光影+氛围”词汇,而不是具体的微小动作。

2. 图生视频 (Image-to-Video / I2V) —— 推荐流程

场景: 商业广告、剧情片、品牌展示。

  • 步骤: 先在 Midjourney 中调出满意的构图和光影,再导入视频 AI。
  • 核心: 图片决定了画面的上限,视频 AI 决定了动作的连贯性。

3. 视频生视频 (Video-to-Video / V2V)

场景: 变脸、换装、真人转动漫、实拍转 3D。

  • 核心: 保持原视频的动作节奏,仅改变视觉风格。

导演课:掌握摄影机控制语言

想要拍出“大片感”,你必须学会用 Prompt 遥控 AI 的镜头:

1. 水平平移 (Pan)

  • Prompt: Camera pans left to right (镜头自左向右摇摆)。
  • 效果: 展现环境的广阔感或追踪移动主体。

2. 垂直摇摄 (Tilt)

  • Prompt: Camera tilts up (镜头自下而上仰拍)。
  • 效果: 展现建筑的高大或主体的威严。

3. 纵深推进/拉远 (Zoom/Dolly)

  • Prompt: Dolly zoom in (推镜头聚焦) 或 Zoom out (拉镜头展现环境)。
  • 效果: 聚焦情绪或交代空间关系。

4. 动态强度控制 (Motion Control)

  • 参数: Motion: 1-10Motion Bucket
  • 建议:
    • 值小 (1-3): 适合静谧的人像、云朵流动。
    • 值大 (7-10): 适合动作、爆炸、奔跑。

AI 视频避坑指南(QA 表)

痛点原因分析解决方案
画面疯狂闪烁帧间差异过大降低 Motion 值;使用 Image-to-Video 模式。
肢体出现畸形扩散模型的物理弱点避开大跨度的肢体动作;使用“局部重绘”修复。
角色长得不像缺乏一致性引用使用支持 Character Reference (CREF) 的模型。
生成内容太短模型限制使用 Kling 或 Runway 的“视频延长” (Extend) 功能。

动手练习

  1. “活”起来的照片: 找一张你拍的风景照,用 Luma 尝试让它里面的流水或云彩动起来。
  2. 运镜对比: 对同一个 Prompt,分别加上 PanZoom 的指令,观察镜头的叙事效果。
  3. 分镜拼凑: 尝试生成两段 5 秒的视频(起因+结果),在剪辑软件里接在一起。

相关阅读


小结

  1. 画质看原图: 想要视频美,先在 MJ 里打好草稿。
  2. 运镜定专业度: 熟练使用摄影机指令,拒绝死板的静态生成。
  3. 学会筛选: AI 视频仍有随机性,十次生成里选一次完美的。
  4. 后期是关键: 视频 AI 只是素材库,真正的成片需要 PR/剪映的最终修饰。