DEV Community

Cover image for Seedance 2.0 リファレンス動画の使い方: モーションとカメラワークをコピー
Akira
Akira

Posted on • Originally published at apidog.com

Seedance 2.0 リファレンス動画の使い方: モーションとカメラワークをコピー

要約

Seedance 2.0の参照ビデオを使用すると、動き(カメラの動き、キャラクターの振り付け、タイミング)をテキストですべて記述するのではなく、既存のクリップに固定できます。参照クリップは3〜8秒とし、シングルショットでジャンプカットがなく、クリーンなH.264圧縮を使用してください。テキストプロンプトは短く(スタイルの場合は形容詞3つ以下)。テキストは参照では示せないものを記述し、参照が動きを処理します。出力がずれたり、参照を無視したりする場合は、このガイドのトラブルシューティング手順に従ってください。

Apidogを今すぐ試してみよう

はじめに

テキストのみのビデオ生成は、漠然としたコンセプト(雰囲気のあるシーン、探索的な方向性、多様な視覚的アプローチ)には適しています。しかし、動きがすでに決まっている場合(ジェスチャーの特定のタイミング、カメラのプッシュイン、歩行サイクルなど)には、テキストの説明は不明瞭になります。

参照ビデオはこのギャップを埋めます。望む動きを示すクリップを用意すれば、Seedance 2.0がその動きを新しいシーンに再解釈します。

このガイドでは、参照ビデオが有効なケースとテキストのみが適するケース、効果的な参照クリップの準備方法、トラブルシューティング方法を解説します。

参照ビデオを使用する場面

参照ビデオが最も効果を発揮するのは以下のパターンです。

  • 微細なジェスチャー:「指のタップ」や「特定タイミングの頷き」など、正確なタイミングが必要な動き。テキストよりも参照クリップの方が正確です。
  • 振り付け:決まったペースの歩行や繰り返し動作など、一貫した動きのパターン。
  • カメラワーク:ゆっくりとしたプッシュインや制御されたカメラ軌道、特定のフレーミングの変化。テキストでの記述が難しい要素です。
  • ビートマッチング:オーディオに同期して動作させたい場合。テキストより、参照クリップから直接タイミングを抽出できます。

テキストのみが適するのは以下のケースです。

  • 多様性や雰囲気重視のコンセプト
  • 同じコンテンツで異なる視覚的アプローチを試したい場合
  • シンプルな動きで参照クリップが不要な場合

参照クリップの準備

良い参照クリップの条件は以下です。

  • 長さ:3〜8秒。短すぎる場合は情報不足、長すぎると一貫性が低下。
  • 連続性:編集・ジャンプカットなし。単一の連続したショット。
  • 圧縮:クリーンなH.264。マクロブロック・アーティファクトがないこと。
  • 被写体の明瞭さ:シンプルな背景・安定した照明。ごちゃごちゃした背景は避ける。

参照クリップ事前チェックリスト:

  • [ ] 8秒未満
  • [ ] 単一の連続ショット、カットなし
  • [ ] クリーンな圧縮、アーティファクトなし
  • [ ] 被写体が背景から明確に分かる
  • [ ] 全体的に安定した照明

参照クリップを使ったプロンプト作成

テキストプロンプトは「参照クリップで表現できない部分」を補完する役割に集中させましょう。

テキストで記述する内容例:

  • スタイル(照明・カラーパレット・雰囲気など)
  • 被写体のID(誰や何が登場するか)
  • カメラのコンテキスト(必要であれば)
  • 1つまたは2つの制約条件

プロンプト構造例:

Style: [照明やパレットなど2〜3ワード]
Subject: [安定した特徴のID記述]
Camera: [参照と異なる場合のみ]
Reference intent: "Respect motion from reference: reinterpret texture and color."
Must not: [1つの制約]
Enter fullscreen mode Exit fullscreen mode

具体例:

参照クリップ:規則的なペースで歩く人物

テキストプロンプト例:

Style: warm afternoon light, golden tones (暖かい午後の光、黄金色)
Subject: a man in a gray suit, early 40s, confident posture (40代前半、グレーのスーツを着た男性、自信に満ちた姿勢)
Respect motion from reference: reinterpret texture and color. (参照の動きを尊重する:テクスチャと色を再解釈する)
Must not: change walking pace (歩行ペースを変更しない)
Enter fullscreen mode Exit fullscreen mode

ポイント:

スタイル記述子は3つ以内に絞りましょう。多いと指示が競合し、意図した出力になりません。


WaveSpeedAIを介したAPI使用

Seedance 2.0はWaveSpeedAIのAPI経由で利用できます。

参照ビデオ用エンドポイント例:

POST https://api.wavespeed.ai/api/v2/seedance/v2/image-to-video
Authorization: Bearer {{WAVESPEED_API_KEY}}
Content-Type: application/json

{
  "prompt": "Warm afternoon light, golden tones. A man in a gray suit walks forward. Respect motion from reference.",
  "image_url": "https://example.com/subject-reference.jpg",
  "reference_video_url": "https://example.com/motion-reference.mp4",
  "duration": 5,
  "aspect_ratio": "16:9"
}
Enter fullscreen mode Exit fullscreen mode

Apidogでのテスト

統合構築前に、Apidogでテストコレクションを作成しましょう。

環境設定

WAVESPEED_API_KEYを秘密変数としてApidog環境に追加。

2ステップのリクエストフロー

  1. 生成リクエストでジョブ開始
  2. ジョブIDで完了をポーリング

リクエスト1:

POST https://api.wavespeed.ai/api/v2/seedance/v2/image-to-video
Authorization: Bearer {{WAVESPEED_API_KEY}}
Content-Type: application/json

{
  "prompt": "{{motion_prompt}}",
  "image_url": "{{subject_image}}",
  "reference_video_url": "{{reference_clip}}",
  "duration": {{duration}},
  "aspect_ratio": "16:9"
}
Enter fullscreen mode Exit fullscreen mode

テストタブでジョブID抽出:

pm.environment.set("job_id", pm.response.json().id);
Enter fullscreen mode Exit fullscreen mode

リクエスト2:

GET https://api.wavespeed.ai/api/v2/predictions/{{job_id}}
Authorization: Bearer {{WAVESPEED_API_KEY}}
Enter fullscreen mode Exit fullscreen mode

アサーション例:

Response body, field status equals "completed" (レスポンスボディ、フィールドstatusが"completed"と等しいこと)
Enter fullscreen mode Exit fullscreen mode

トラブルシューティングガイド

モーションの揺れ(ジッター)

  1. クリップ端の不要な動きをトリミング
  2. ソース映像のノイズを減らす
  3. 撮影時にスタビライズ(後処理でなく)
  4. 参照クリップを3〜5秒に短縮
  5. テキストプロンプトの記述子を削減

参照が無視される(モデルが参照クリップを無視する)

  1. 動きを誇張し、被写体をフレーム中央に
  2. 1クリップにつき1種類の動きのみ
  3. テキストで明示的に動きを指示:「参照からカメラの動きをコピー」
  4. クリップの最もクリーンな2〜3秒を抽出
  5. カメラワーク参照には視差を強調(テープ等のマーク利用)

スタイルずれ(出力が意図した美学と一致しない)

  1. スタイル記述子を2〜3つに限定
  2. 動画参照とあわせて静止参照フレームも追加
  3. クリップのディテールやパターンを簡素化
  4. レンダリング設定を一貫させる
  5. まず動きを確定→その後ルックを反復調整

権利と同意

参照クリップに個人が映る場合は、以下を厳守してください。

  • 動き・肖像が登場する全員の書面同意
  • 未成年は保護者の署名
  • 撮影場所が商業利用可か確認
  • 目立つロゴや第三者マークを除外
  • 記録保持:日付・同意メモ・バージョン

これらは参照クリップと生成される出力の両方に適用されます。


よくある質問

Q. 参照ビデオは画像参照を置き換えるものですか?

A. 目的が異なります。画像参照は外見(誰が登場するか)を固定、ビデオ参照は動き(どう動くか)を固定します。両方使えば外見と動きを独立制御できます。

Q. 参照クリップの長さは?

A. 3〜8秒が目安。短すぎると情報不足、長すぎると一貫性が低下します。

Q. 異なるジャンルの参照クリップは使用可能?

A. はい。例えば歩行を人間→ロボットに転用できます。動きは参照、外見はテキストや画像で制御。

Q. 参照クリップの解像度は?

A. 720p以上推奨。低解像度だと動き情報が減り、転送品質が落ちます。

Q. 同じ参照で複数クリップ生成可能?

A. 可能です。同じ参照で異なるプロンプトを使い、動き一貫・内容多様なシーン生成ができます。

Top comments (0)