Runway Gen-4は、前世代のGen-3から劇的な進化を遂げた次世代の動画生成AIです。
その最大の特徴は、シンプルなプロンプトから驚くほど自然でダイナミックな映像を生成できる点にあります。
Gen-4の特徴とは?
「1枚の画像」から「プロンプト」で動画化
用意するのは、1枚の静止画像と短いテキストだけ。
このテキストプロンプトには「誰が・どのように動くか」「カメラはどう動くか」などを記述します。すると、Gen-4はその内容をもとに、最大10秒の映像を生成してくれます。
Gen-3からの大きな進化ポイント
✅ 被写体の動きが格段に自然に
Gen-4では、歩く・走る・振り返る・笑う・泣く…といった感情を伴う動作表現もリアルに再現されます。
前モデルでは「動きが遅すぎる」「表情がぎこちない」といった課題がありましたが、Gen-4では人間の動作に近いスピード感と滑らかさを実現しています。
✅ カメラワークが表現可能に
カメラの「ズームイン」「ドリーイン」「パンアップ」「ハンドヘルド」など、映画的なカメラモーションもプロンプトで指示できます。
これにより、よりシネマティックな演出が可能になりました。
✅ 光と影のレンダリングが強化
特に注目すべきは、光や影、煙、反射といった視覚効果の再現性です。
例えば、走る列車が生む影の流れや、砂埃を巻き上げる恐竜の足元など、動きに連動するシーン効果(Scene Motion)もリアルに生成されます。
✅ 一貫性のあるキャラクター生成に向けた進化
Gen-4では、現在ベータ段階ながら、“World Consistency”(世界観の一貫性)の導入が進んでいます。
これは、複数のシーンにわたって同一キャラクターや小道具の見た目を維持する技術であり、長編映像やストーリー作品への応用が期待されています。
プロンプトの基本構造【公式ガイドより】
Runway Gen-4を最大限に活用する鍵は、「動きを中心にしたプロンプト設計」にあります。
公式ガイドでは、効果的なプロンプトを書くための構造が明確に示されています。それが以下の4つの要素からなる「シネマティック・プロンプト構造」です。
① Subject Motion(被写体の動き)
人物や動物などの主役がどのように動くかを明確に伝える要素です。
動き・表情・ジェスチャーをできるだけ具体的に、かつシンプルに記述するのがうまくいくコツです。
The woman raises her hand slowly and smiles.
女性がゆっくりと手を上げて微笑む。
プロンプト | 日本語訳 |
---|---|
raises her hand | 手を上げる |
walks forward | 前に歩く |
looks around | あたりを見回す |
turns slowly | ゆっくりと振り向く |
starts crying | 泣き始める |
laughs hysterically | ヒステリックに笑う |
waves at someone | 誰かに手を振る |
sits down calmly | 落ち着いて座る |
runs away in fear | 恐怖で逃げる |
stares at the sky | 空を見つめる |
② Camera Motion(カメラの動き)
映画的な演出を実現するうえで欠かせないのがカメラの動きの指定です。
Gen-4では多様なカメラワークをプロンプトでコントロールでき、ダイナミックな映像が生成可能です。
A handheld camera follows the boy as he runs across the field.
手持ちカメラが草原を走る少年を追いかける。
プロンプト | 日本語訳 |
---|---|
handheld camera | 手持ちカメラ |
locked camera | カメラ固定(動かない) |
dolly in / dolly out | カメラ前進/後退 |
zoom in / zoom out | ズームイン/ズームアウト |
camera pans left / right | カメラが左/右にパン |
camera tilts up / down | カメラが上/下にチルト |
camera rises / lowers slowly | カメラがゆっくり上下に移動 |
camera moves upward / downward | カメラが上方/下方に移動 |
tracking shot | 被写体を追尾するショット |
over-the-shoulder shot | 肩越しの視点ショット |
③ Scene Motion(背景・状況の動き)
被写体以外の背景や周囲の状況の動きを記述します。
風や雨、煙、砂埃、雷などの自然現象を加えると、映像に深みとリアリティを生み出せます。
Dust trails behind the running dinosaur.
走る恐竜の後ろに砂埃が舞う。
プロンプト | 日本語訳 |
---|---|
dust trails behind | 砂埃が後ろに舞う |
waves crash onto the shore | 波が浜辺に打ち寄せる |
trees sway in the wind | 木々が風に揺れる |
leaves fall gently | 葉が静かに舞い落ちる |
fire spreads rapidly | 火が急速に広がる |
smoke rises from the ruins | 煙が廃墟から立ち上る |
glass shatters | ガラスが割れる |
lightning strikes in the background | 背景に雷が落ちる |
fog rolls in slowly | 霧がゆっくりと立ち込める |
birds scatter into the sky | 鳥が空に飛び立つ |
④ Style Descriptor(映像のスタイル)
映像全体の質感・速度・雰囲気などのスタイルを定義するための要素です。
現実的なルックからアニメ風まで、演出の幅を広げるキーワードが揃っています。
cinematic, slow motion, high contrast lighting
映画的、スローモーション、高コントラストの照明
プロンプト | 日本語訳 |
---|---|
cinematic | 映画的な |
live-action style | 実写風のスタイル |
slow motion | スローモーション |
fast-paced | テンポが速い |
smooth animation | 滑らかなアニメーション |
dramatic lighting | ドラマチックなライティング |
stop motion style | ストップモーション風 |
noir style | ノワール調 |
dreamlike | 夢のような雰囲気 |
hyper-realistic | 超リアルな質感 |
プロンプト設計の鉄則
- シンプルに始める:
最初は最小限のモーションから。1つずつ要素を追加して調整 - 否定形や命令形は使わない:
「Don’t move the camera」ではなく「The camera remains still」 - 位置関係は明確に:
「The man on the left」「The woman behind him」など、誤認識を防ぐ記述が重要
実際に動かしてみた!
テクニック①:焦点を被写体から小物へ移動する
The camera slowly shifts focus to a book on the table The focus shifts smoothly from the young woman sitting in the background to the open book lying on the wooden table in the foreground.
テクニック②:カメラと被写体を同時に動かす
A dolly camera moves alongside a young man skateboarding through a neon-lit city street. Reflections shimmer on the wet pavement.
テクニック③:人物を移動させる
A woman sitting on a sofa stands up, walks to a bed at the back of the room, sits down on the bed.
テクニック④:シーンの状況を演出
The dinosaur runs through a dusty desert. Dust trails behind its legs as it stomps.
テクニック⑤:視線と視線が交錯する対話
The man on the left looks toward the woman across the table. She meets his gaze and slowly nods.
まとめ:成功するプロンプト設計のポイント
- 映像を「動き」として捉える(絵ではなく、時間の流れ)
- 被写体、カメラ、環境、演出の4層構造を意識して設計
- 位置・順序・因果関係を明確な言葉で記述する
成功するプロンプトの書き方5つの鉄則
Gen-4では、プロンプトが動画の出来を左右する唯一の手段です。
わずか一文で「映画のようなワンシーン」になるか、「意味不明な失敗作」になるかが決まります。
ここでは、動画生成においてAIに正しく意図を伝えるための5つの鉄則を紹介します。
コツ①:シンプルな一文から始める
Gen-4は複雑な構文よりも、簡潔で明確な動作記述に強く反応します。
最初は「1動作+1被写体」に絞りましょう。
- ❌ NG:要素が多すぎてモデルが混乱
-
The woman walks into the room, looks around nervously, then runs to the window as the camera zooms out and lightning flashes outside.
- ✅ OK:1つの動作+1つのカメラワークから
-
The woman walks into the room. The camera zooms out slowly.
コツ②:否定形や命令形は避ける
Gen-4は「Don’t」「Avoid」「Try to」などの否定や命令を正確に解釈できないことが多いため、代わりに肯定形で書きましょう。
- ❌ NG:
-
Don’t move the camera.
- ✅ OK:
-
The camera remains still. Use a locked camera.
「locked camera」はGen-4で静止カメラを指定する推奨キーワード。
コツ③:要素を1つずつ追加してテストする
最初のプロンプトでいきなり全部詰め込まず、段階的に動作・スタイル・エフェクトを加えていくのが効果的です。
ステップ例(段階的に発展させる):
- The boy runs across the field.
- A handheld camera follows the boy as he runs.
- The grass sways gently as he moves.
- Cinematic, slow motion.
このように1要素ずつ追加することで、どこで失敗するかの検証もしやすくなります。
コツ④:位置関係を明確に記述する
複数の登場人物がいる場合は、誰がどこにいるかを明記することで、誤動作や混乱を防げます。
- ❌ NG:誰と誰か不明
-
They look at each other.
- ✅ OK:位置関係が明確
-
The man on the left looks toward the woman sitting across from him.
プロンプト | 日本語訳 |
---|---|
on the left / right | 左・右 |
in front / behind | 前・後ろ |
across the table | テーブルの向かい |
next to / near the window | 〜の隣/〜の近く |
コツ⑤:動きに因果関係や時間軸を持たせる
シーンを自然に見せるには、「この動作の後に、あれが起きる」といった因果や時間の流れを表現するのが効果的です。
プロンプト | 日本語訳 |
---|---|
Then she… | その後彼女は… |
As he moves… | 彼が動くと同時に… |
Suddenly, the camera… | 突然カメラが… |
While she is speaking… | 彼女が話している間に… |
使える構文:
- Then she…(その後彼女は…)
- As he moves…(彼が動くと同時に…)
- Suddenly, the camera…(突然カメラが…)
- While she is speaking…(彼女が話している間に…)
The girl closes the book. Suddenly, the camera zooms in on her face.
少女は本を閉じる。突然、カメラが彼女の顔をズームアップする。
補足:よく使われる「成功ワード」まとめ
カテゴリ | 成功しやすいワード例 |
---|---|
カメラ | handheld, locked camera, zoom in, dolly in, tracking |
動作 | walks forward, turns slowly, raises her hand, stares ahead |
環境 | dust trails, ripples, fog rolls in, wind blows |
スタイル | cinematic, live-action, slow motion, dramatic lighting |
今後の注目ポイント:World Consistency
Runway Gen-4はすでに驚異的な映像表現力を実現していますが、その進化はまだ止まりません。
特に今後注目されているのが、「World Consistency(ワールド・コンシステンシー)」と呼ばれる新機能です。
これは、複数カットや長尺映像において、“キャラクターや世界観の一貫性”を維持できる技術であり、物語的な映像生成の革命的な鍵となるでしょう。
World Consistencyとは何か?
従来の動画生成AIでは、カットごとに人物や小道具の見た目が変わってしまうという課題がありました。
しかしWorld Consistencyの導入により、以下のような一貫性が担保されます。
- 同一キャラクターの顔・服装・髪型
- 登場する小道具(ノートPC、本、武器など)
- ロケーション(オフィスの内装、街並みなど)
- 光・色・質感などの演出スタイル
これにより、1枚の基準画像(リファレンス)をもとに複数カットを生成し、連続性のあるストーリー映像を構築できるようになります。
実際に何ができるようになるか?
ショートムービーやCM制作が現実的に
キャラクターの見た目が変わらないなら、複数カットで構成された短編映像作品も制作可能になります。
同じ“主人公”で繰り返し映像を作れる
例えば、ある物語の主人公の女性が自宅、オフィス、街中で展開する別カットの物語を一貫性あるビジュアルで表現可能。
ブランディングされたキャラクターのシリーズ化やIP展開にも繋がります。
リファレンスによる制御が可能に
「写真Aの女性の顔と、写真Bのカフェの内装を使って、Cのようなシーンを作って」といったマルチリファレンス構成も実装予定。
画像指定だけで世界観の統合が可能となり、動画生成AIにおけるディレクションの自由度が爆発的に高まります。
コメント