一文生成で人物がブレたり、複数素材で指示が衝突したりするなら、Seedance 2.0 は 素材の役割分担+言語での制御 が核です。枠・UI は公式(即夢など)が正;下記の数値は目安です。
概要と向いている用途
ByteDance Seed 系の AI 動画:テキスト・画像・参照動画・参照音声を組み合わせ、それぞれに 誰が見た目・動き・カメラのリズム・音の雰囲気を決めるか を書き分けます。短い CM、小さな物語、キャラ、商品、ダンス/アクション、プロンプトを 撮影計画のように書ける人向け。
三層モデル
- 素材 2. 役割(先頭フレーム、同一性、動き、カメラ、テンポ)3. 言語(時空・動作・レンズ・光・スタイル・禁止事項)。
@で 2 を固定します。
入力の目安(必ずアプリで確認)
クリップ約 15 秒、画像約 9、参照動画約 3、MP3 約 3、合計ファイル約 12、1080p 以上 など。最初は 代表画像+明確なプロンプト → 動き・カメラ用に参照動画 → 最後に音声。
二つの流れ
首尾/画像→動画:キーフレームを置き、誰が何をするか、観察可能な身体動作、カメラ動詞(プッシュ、パン、フォロー等)、光を書く。フルマルチモーダル:複数素材+@ で 同一キャラの維持 や 振り付け/カメラワークの転写。参照と本文の 整合 が重要。
@ の書き方
名前+用途(例:「@画像1 を先頭構図と外見の参照に」)。矛盾する役割は避け、本文の空間・状況と一致させる。例:先頭+スローイン;主人公は @画像1、動きは @動画1;ムードは @音声1 で、@画像1 の髪型・服は変えない。
プロンプト
主体+動作+カメラ+スタイル/環境。S-A-C-S-C:Subject / Action / Camera / Style / Constraint(着替え禁止、余分な人物禁止など)。用語:遠景・全景・ミディアム・クローズ;アイレベル/俯瞰/あおり;固定・パン・ドリー・フォロー・手持ち・オービット;ドリーズーム;カット少なめは制約に。
反復
一度に変えるのは一要素;まず 4〜6 秒 で同一性と主動作を固める。失敗は「ランダム/プロンプト衝突/素材衝突/モード不一致」に分類。
よくある落とし穴
相反するスタイル;カメラ未指定;用途のない @;抽象語だけの動作;複数人の視線・順序・位置が曖昧。
シーン別
同一性:キービジュアル+@+「同一人物」。複数人:誰が誰を見るか、順番、距離。動きコピー:参照動画+@。音楽:トラックとキーワードを揃える。続き/部分編集:つなぎの動作とカメラ、または「X は維持、Y のみ変更」。EC:ロゴ判読、商標の歪み防止。
まとめ
@ で素材の役割、構造化プロンプトで動き・レンズ・ガードレールを管理。本番前に公式のルールと入口を確認してください。