こんにちは、AIニュースアプリ Morning AI 開発者の矢野哲平です。この記事ではOpenRouterが公開したビデオ生成APIについて触れます。

Announcing Video Generation - OpenRouter

OpenRouterのビデオ生成API

OpenRouterは2026年4月15日、ビデオ生成機能を本番環境で公開しました。テキスト・画像・音声・埋め込みに続く新しいモダリティです。

ポイントは、単一のAPIで複数のビデオ生成モデルにアクセスできること。

モデルごとに異なるAPIを叩く必要がなく、ルーティング・ガバナンス・課金がOpenRouter側で統一されます。

対応モデル

初日時点で以下のモデルが利用可能です。

  • Sora 2 Pro
  • Seedance 2.0 / 1.5
  • Veo 3.1
  • Wan 2.7 / 2.6

今後さらにモデルが追加される予定とのこと。

APIの仕組み

ビデオ生成は画像やテキストと違い、数分単位の処理時間がかかります。そのためAPIは非同期設計になっています。

流れはこうです。

  1. /api/v1/videos にプロンプトを送信
  2. ジョブIDが返る
  3. 完了後に動画を取得

解像度・継続時間・アスペクト比・音声生成・フレーム画像・参照画像といったパラメータは、モデル間で統一されたスキーマで指定できます。

モデル固有のパラメータにはパススルーでアクセスする仕組みです。

モデルごとの違いを事前に確認できる

/api/v1/videos/models エンドポイントで、各モデルの対応機能をプログラムから確認できます。

例えばVeo 3.1は4秒・6秒・8秒の動画に対応し、personGenerationパラメータで人物の出現を制御できます。

Wan 2.6は5秒・10秒に対応。モデルによって対応範囲が異なるため、この機能発見エンドポイントは実用上かなり重要です。

マルチモーダルワークフロー

OpenRouterが推しているのが、LLMとの組み合わせです。

LLMでプロンプトを生成し、画像モデルでキャラクターを作り、ビデオモデルでシーン化する。こうしたマルチモーダルなパイプラインを単一プラットフォーム上で構築できます。

ビデオ生成ではプロンプトの精密さが品質に直結します。カメラの動き、照明、テクスチャ、ペーシングなどを細かく指定するほどコントロールが効くとのこと。

確かにシナリオ作成→シーンごとの動画プロンプト生成→動画生成のパイプラインがOpenRouterのAPIキーで実装できるのは開発しやすいですね。

デモとしてmultimedia-explorerというオープンソースアプリも公開されています。

LLM統合APIの次の一手

OpenRouterはもともとLLMのルーティングサービスとして始まりましたが、画像、音声、埋め込みと対応範囲を広げてきました。ビデオ生成の追加は、その延長線上にあります。

AIモデルの比較でよく利用しますが、動画まで生成できるようになるとは...

今後のOpenRouterの展開が楽しみです。