要約
Seedance 2.0の参照ビデオを使用すると、動き(カメラの動き、キャラクターの振り付け、タイミング)をテキストですべて記述するのではなく、既存のクリップに固定できます。参照クリップは3〜8秒とし、シングルショットでジャンプカットがなく、クリーンなH.264圧縮を使用してください。テキストプロンプトは短く(スタイルの場合は形容詞3つ以下)。テキストは参照では示せないものを記述し、参照が動きを処理します。出力がずれたり、参照を無視したりする場合は、このガイドのトラブルシューティング手順に従ってください。
はじめに
テキストのみのビデオ生成は、漠然としたコンセプト(雰囲気のあるシーン、探索的な方向性、多様な視覚的アプローチ)には適しています。しかし、動きがすでに決まっている場合(ジェスチャーの特定のタイミング、カメラのプッシュイン、歩行サイクルなど)には、テキストの説明は不明瞭になります。
参照ビデオはこのギャップを埋めます。望む動きを示すクリップを用意すれば、Seedance 2.0がその動きを新しいシーンに再解釈します。
このガイドでは、参照ビデオが有効なケースとテキストのみが適するケース、効果的な参照クリップの準備方法、トラブルシューティング方法を解説します。
参照ビデオを使用する場面
参照ビデオが最も効果を発揮するのは以下のパターンです。
- 微細なジェスチャー:「指のタップ」や「特定タイミングの頷き」など、正確なタイミングが必要な動き。テキストよりも参照クリップの方が正確です。
- 振り付け:決まったペースの歩行や繰り返し動作など、一貫した動きのパターン。
- カメラワーク:ゆっくりとしたプッシュインや制御されたカメラ軌道、特定のフレーミングの変化。テキストでの記述が難しい要素です。
- ビートマッチング:オーディオに同期して動作させたい場合。テキストより、参照クリップから直接タイミングを抽出できます。
テキストのみが適するのは以下のケースです。
- 多様性や雰囲気重視のコンセプト
- 同じコンテンツで異なる視覚的アプローチを試したい場合
- シンプルな動きで参照クリップが不要な場合
参照クリップの準備
良い参照クリップの条件は以下です。
- 長さ:3〜8秒。短すぎる場合は情報不足、長すぎると一貫性が低下。
- 連続性:編集・ジャンプカットなし。単一の連続したショット。
- 圧縮:クリーンなH.264。マクロブロック・アーティファクトがないこと。
- 被写体の明瞭さ:シンプルな背景・安定した照明。ごちゃごちゃした背景は避ける。
参照クリップ事前チェックリスト:
- [ ] 8秒未満
- [ ] 単一の連続ショット、カットなし
- [ ] クリーンな圧縮、アーティファクトなし
- [ ] 被写体が背景から明確に分かる
- [ ] 全体的に安定した照明
参照クリップを使ったプロンプト作成
テキストプロンプトは「参照クリップで表現できない部分」を補完する役割に集中させましょう。
テキストで記述する内容例:
- スタイル(照明・カラーパレット・雰囲気など)
- 被写体のID(誰や何が登場するか)
- カメラのコンテキスト(必要であれば)
- 1つまたは2つの制約条件
プロンプト構造例:
Style: [照明やパレットなど2〜3ワード]
Subject: [安定した特徴のID記述]
Camera: [参照と異なる場合のみ]
Reference intent: "Respect motion from reference: reinterpret texture and color."
Must not: [1つの制約]
具体例:
参照クリップ:規則的なペースで歩く人物
テキストプロンプト例:
Style: warm afternoon light, golden tones (暖かい午後の光、黄金色)
Subject: a man in a gray suit, early 40s, confident posture (40代前半、グレーのスーツを着た男性、自信に満ちた姿勢)
Respect motion from reference: reinterpret texture and color. (参照の動きを尊重する:テクスチャと色を再解釈する)
Must not: change walking pace (歩行ペースを変更しない)
ポイント:
スタイル記述子は3つ以内に絞りましょう。多いと指示が競合し、意図した出力になりません。
WaveSpeedAIを介したAPI使用
Seedance 2.0はWaveSpeedAIのAPI経由で利用できます。
参照ビデオ用エンドポイント例:
POST https://api.wavespeed.ai/api/v2/seedance/v2/image-to-video
Authorization: Bearer {{WAVESPEED_API_KEY}}
Content-Type: application/json
{
"prompt": "Warm afternoon light, golden tones. A man in a gray suit walks forward. Respect motion from reference.",
"image_url": "https://example.com/subject-reference.jpg",
"reference_video_url": "https://example.com/motion-reference.mp4",
"duration": 5,
"aspect_ratio": "16:9"
}
Apidogでのテスト
統合構築前に、Apidogでテストコレクションを作成しましょう。
環境設定
WAVESPEED_API_KEYを秘密変数としてApidog環境に追加。
2ステップのリクエストフロー
- 生成リクエストでジョブ開始
- ジョブIDで完了をポーリング
リクエスト1:
POST https://api.wavespeed.ai/api/v2/seedance/v2/image-to-video
Authorization: Bearer {{WAVESPEED_API_KEY}}
Content-Type: application/json
{
"prompt": "{{motion_prompt}}",
"image_url": "{{subject_image}}",
"reference_video_url": "{{reference_clip}}",
"duration": {{duration}},
"aspect_ratio": "16:9"
}
テストタブでジョブID抽出:
pm.environment.set("job_id", pm.response.json().id);
リクエスト2:
GET https://api.wavespeed.ai/api/v2/predictions/{{job_id}}
Authorization: Bearer {{WAVESPEED_API_KEY}}
アサーション例:
Response body, field status equals "completed" (レスポンスボディ、フィールドstatusが"completed"と等しいこと)
トラブルシューティングガイド
モーションの揺れ(ジッター)
- クリップ端の不要な動きをトリミング
- ソース映像のノイズを減らす
- 撮影時にスタビライズ(後処理でなく)
- 参照クリップを3〜5秒に短縮
- テキストプロンプトの記述子を削減
参照が無視される(モデルが参照クリップを無視する)
- 動きを誇張し、被写体をフレーム中央に
- 1クリップにつき1種類の動きのみ
- テキストで明示的に動きを指示:「参照からカメラの動きをコピー」
- クリップの最もクリーンな2〜3秒を抽出
- カメラワーク参照には視差を強調(テープ等のマーク利用)
スタイルずれ(出力が意図した美学と一致しない)
- スタイル記述子を2〜3つに限定
- 動画参照とあわせて静止参照フレームも追加
- クリップのディテールやパターンを簡素化
- レンダリング設定を一貫させる
- まず動きを確定→その後ルックを反復調整
権利と同意
参照クリップに個人が映る場合は、以下を厳守してください。
- 動き・肖像が登場する全員の書面同意
- 未成年は保護者の署名
- 撮影場所が商業利用可か確認
- 目立つロゴや第三者マークを除外
- 記録保持:日付・同意メモ・バージョン
これらは参照クリップと生成される出力の両方に適用されます。
よくある質問
Q. 参照ビデオは画像参照を置き換えるものですか?
A. 目的が異なります。画像参照は外見(誰が登場するか)を固定、ビデオ参照は動き(どう動くか)を固定します。両方使えば外見と動きを独立制御できます。
Q. 参照クリップの長さは?
A. 3〜8秒が目安。短すぎると情報不足、長すぎると一貫性が低下します。
Q. 異なるジャンルの参照クリップは使用可能?
A. はい。例えば歩行を人間→ロボットに転用できます。動きは参照、外見はテキストや画像で制御。
Q. 参照クリップの解像度は?
A. 720p以上推奨。低解像度だと動き情報が減り、転送品質が落ちます。
Q. 同じ参照で複数クリップ生成可能?
A. 可能です。同じ参照で異なるプロンプトを使い、動き一貫・内容多様なシーン生成ができます。
Top comments (0)