2026 年 2 月 12 日,字节跳动 Seed 团队正式发布 Seedance 2.0——新一代多模态 AI 视频生成模型。它采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入,在物理精准运动、角色一致性与导演级镜头控制等方面树立了新标准,单次生成即可输出高质量音画一体内容,直击工业级创作需求。

什么是 Seedance 2.0

Seedance 2.0 是字节跳动目前最先进的 AI 视频生成模型。与仅支持单一文本或图像输入的早期方案不同,它基于统一多模态架构,可同时接受文本、图像、音频和视频作为输入,并通过自然语言 @ 提及系统 精确指定每个素材的贡献——例如从某张图参考角色外观、从某段视频参考运动与镜头、从某段音频参考节奏与风格。这种「从提示到导演」的范式,让创作者能够像指挥一场拍摄一样控制整支视频的生成过程,是业界少有的、覆盖多模态参考与编辑的完整能力集合。

SeedVideoBench-2.0 综合评测中,Seedance 2.0 在运动质量、视觉保真度、物理精度、提示词遵循度和时间一致性等多个维度表现领先,为「可用、可控、高质量」的 AI 视频生成提供了新的参照系。

核心能力一览

多模态参考与 @ 提及系统

用户可同时上传最多 9 张图片、3 段视频、3 段音频,再通过自然语言描述和 @ 提及,明确每一份素材用于「运动」「风格」「角色」「镜头」或「音频节奏」中的哪一类。例如:用一张人物定妆照锁定角色长相与服装,用一段参考片提取运镜与剪辑节奏,用一段 BGM 约束成片的音乐风格。单次生成即可完成多源参考的融合,无需分步拼贴或后期对轨。

原生音视频联合生成

Seedance 2.0 在单次生成中同步输出音频与视频,而不是「先出画面再贴音」。支持唇形同步对话、与画面动作匹配的音效、跟随视觉节奏的背景音乐以及带情绪表现力的配音,并支持双声道立体声。这意味着口播、剧情片、广告片等类型可以从一开始就按「音画一体」来设计,无需再依赖独立的音频后期流程。

物理精准运动与复杂交互

在双人花样滑冰、多人竞技、器械操作等强物理约束与复杂交互场景中,模型能显著提升动作的自然性、连贯性与物理合理性。相比前代与同类方案,在复杂交互和运动场景下的「可用率」达到业界先进水平,适合对动作真实感要求较高的广告、体育、剧情类内容。

导演级镜头控制

用户可直接用自然语言指定希区柯克变焦、环绕镜头、跟踪镜头、移动车、手持感以及复杂编舞与转场。也可上传参考视频,让模型在新场景中复现其镜头技巧与剪辑节奏。对非专业剪辑师而言,无需学习时间线或关键帧,即可获得接近专业级的运镜与节奏控制。

角色与物体一致性

上传角色或产品参考图后,Seedance 2.0 能在所有镜头、机位与光线变化中保持面部特征、服装、产品 Logo 等细节一致。多角色、多镜头的群戏或广告片,无需逐镜修脸或手动跟踪,即可保持身份与造型的稳定,有利于品牌露出与叙事连贯。

视频编辑与延长

支持对已有视频进行定向修改:替换指定片段、角色或动作,或按提示「接着拍」生成连续镜头,实现视频延长与续写。适合在已有成片基础上做版本迭代、补拍或 A/B 测试,而无需从头重生成整片。

适用场景与使用入口

Seedance 2.0 现已可在 立刻使用Seedance2 体验多模态输入、原生音画一体与导演级控制。

小结

Seedance 2.0 通过统一多模态架构、原生音视频联合生成、物理精准运动、角色一致性与导演级镜头控制,将 AI 视频生成从「单点能力」推向「全流程可控的工业级创作」。无论是品牌方、制作团队还是个人创作者,都可以在现有工作流中接入这一能力,用更少的步骤产出更高一致性与专业度的音视频内容。随着立刻使用Seedance2等产品持续集成与开放,Seedance 2.0 有望成为多模态视频创作的重要基础设施之一。