こんにちは、AIニュースアプリ Morning AI 開発者の矢野哲平です。この記事ではOpenRouterが公開したビデオ生成APIについて触れます。
Announcing Video Generation - OpenRouter
OpenRouterのビデオ生成API
OpenRouterは2026年4月15日、ビデオ生成機能を本番環境で公開しました。テキスト・画像・音声・埋め込みに続く新しいモダリティです。
ポイントは、単一のAPIで複数のビデオ生成モデルにアクセスできること。
モデルごとに異なるAPIを叩く必要がなく、ルーティング・ガバナンス・課金がOpenRouter側で統一されます。
対応モデル
初日時点で以下のモデルが利用可能です。
- Sora 2 Pro
- Seedance 2.0 / 1.5
- Veo 3.1
- Wan 2.7 / 2.6
今後さらにモデルが追加される予定とのこと。
APIの仕組み
ビデオ生成は画像やテキストと違い、数分単位の処理時間がかかります。そのためAPIは非同期設計になっています。
流れはこうです。
/api/v1/videosにプロンプトを送信- ジョブIDが返る
- 完了後に動画を取得
解像度・継続時間・アスペクト比・音声生成・フレーム画像・参照画像といったパラメータは、モデル間で統一されたスキーマで指定できます。
モデル固有のパラメータにはパススルーでアクセスする仕組みです。
モデルごとの違いを事前に確認できる
/api/v1/videos/models エンドポイントで、各モデルの対応機能をプログラムから確認できます。
例えばVeo 3.1は4秒・6秒・8秒の動画に対応し、personGenerationパラメータで人物の出現を制御できます。
Wan 2.6は5秒・10秒に対応。モデルによって対応範囲が異なるため、この機能発見エンドポイントは実用上かなり重要です。
マルチモーダルワークフロー
OpenRouterが推しているのが、LLMとの組み合わせです。
LLMでプロンプトを生成し、画像モデルでキャラクターを作り、ビデオモデルでシーン化する。こうしたマルチモーダルなパイプラインを単一プラットフォーム上で構築できます。
ビデオ生成ではプロンプトの精密さが品質に直結します。カメラの動き、照明、テクスチャ、ペーシングなどを細かく指定するほどコントロールが効くとのこと。
確かにシナリオ作成→シーンごとの動画プロンプト生成→動画生成のパイプラインがOpenRouterのAPIキーで実装できるのは開発しやすいですね。
デモとしてmultimedia-explorerというオープンソースアプリも公開されています。
LLM統合APIの次の一手
OpenRouterはもともとLLMのルーティングサービスとして始まりましたが、画像、音声、埋め込みと対応範囲を広げてきました。ビデオ生成の追加は、その延長線上にあります。
AIモデルの比較でよく利用しますが、動画まで生成できるようになるとは...
今後のOpenRouterの展開が楽しみです。