2026年2月12日、バイトダンスSeedチームはSeedance 2.0を正式リリースしました。次世代マルチモーダルAI動画生成モデルで、テキスト・画像・音声・動画を入力とする統一マルチモーダル音画統合生成アーキテクチャを採用。物理的に正確なモーション、キャラクター一貫性、ディレクター級ショット制御で新基準を打ち立て、1回の生成で高品質な音画一体コンテンツを出力し、工業級クリエーション需要に応えます。

Seedance 2.0とは

Seedance 2.0はバイトダンス現時点で最も先進的なAI動画生成モデルです。単一のテキストや画像のみを入力とする従来方式と異なり、統一マルチモーダルアーキテクチャに基づき、テキスト・画像・音声・動画を同時に入力でき、自然言語の**@メンションシステム**で各素材の役割(例:某画像からキャラ外見、某動画から動き・カメラ、某音声からリズム・スタイル)を正確に指定します。「プロンプトからディレクターまで」のパラダイムで、クリエイターは撮影を指揮するように動画生成全体をコントロールでき、マルチモーダル参照と編集をカバーする業界でも稀有な能力セットを提供します。

SeedVideoBench-2.0総合評価では、Seedance 2.0はモーション品質、視覚忠実度、物理精度、プロンプト遵守度、時間一貫性などでリードし、「使える・制御可能・高品質」なAI動画生成の新たな参照系となっています。

コア機能概要

マルチモーダル参照と@メンション

画像最大9枚、動画3本、音声3本を同時アップロードし、自然言語と@メンションで各素材を「モーション」「スタイル」「キャラ」「カメラ」「音声リズム」のいずれに使うか指定できます。1回の生成でマルチソース参照を融合し、段階的な合成や後付け同期は不要です。

ネイティブ音画統合生成

Seedance 2.0は1回の生成で音声と動画を同時出力し、「先に映像、後から音」ではありません。リップシンク対話、画面アクションに合わせた効果音、視覚リズムに沿ったBGM、表現力のあるナレーションをサポートし、ステレオ対応。トーキングヘッド・劇映画・CMなどは最初から「音画一体」で設計でき、別の音声ポストワークフローに依存しません。

物理的に正確なモーションと複雑なインタラクション

ペアフィギュア、多人競技、機材操作など強い物理制約と複雑なインタラクションのシーンで、モデルはモーションの自然さ・一貫性・物理的妥当性を大幅に向上させます。複雑なインタラクション・モーションシーンでの「使用率」は業界先進水準に達し、アクションのリアリティを求める広告・スポーツ・劇映画向けです。

ディレクター級ショット制御

自然言語でヒッチコックズーム、オービット、トラッキング、ドリー、ハンディ感、複雑な振付とトランジションを指定可能。参照動画をアップロードすれば、モデルが新シーンでそのカメラ技法と編集リズムを再現します。非編集者でもタイムラインやキーフレームを学ばず、プロ級に近いカメラワークとリズム制御が得られます。

キャラクター・オブジェクト一貫性

キャラや商品の参照画像をアップロード後、Seedance 2.0は全ショット・アングル・光で顔の特徴・衣装・商品ロゴなどを一貫して維持。多キャラ・多ショットの群像劇やCMでも、ショットごとの顔修正や手動トラッキングなしで同一性・造型を安定させ、ブランド露出と叙事の一貫性を支えます。

動画編集・延長

既存動画の対象編集に対応:指定セグメント・キャラ・アクションの差し替え、またはプロンプトで「続きを撮る」ことで連続ショットを生成し延長・続きを実現。既存カットのバージョン迭代・追加撮影・A/Bテストに適し、全体の再生成は不要です。

適用シーンとアクセス

Seedance 2.0 现已可在 立刻使用Seedance2 体验多模态输入、原生音画一体与导演级控制。

まとめ

統一マルチモーダルアーキテクチャ、ネイティブ音画統合生成、物理的に正確なモーション、キャラ一貫性、ディレクター級ショット制御により、Seedance 2.0はAI動画生成を「単点能力」から「フルパイプラインで制御可能な工業級クリエーション」へと押し上げます。ブランド・制作チーム・個人クリエイターは既存ワークフローにこの能力を組み込み、より少ないステップで一貫性とプロ品質の高い音画コンテンツを制作できます。即夢・豆包などの継続的な統合・開放に伴い、Seedance 2.0はマルチモーダル動画制作の重要インフラの一つとなることが期待されます。