Stability AI Developer Platform APIでStable Video Diffusionが利用可能になりました

ポイント

  • Developer Platform APIに、ビデオ生成の基盤モデルであるStable Video Diffusionを追加しました。

  • モデルは、平均41秒以内に、25フレームの生成フレームと24フレームのFILM補間からなる2秒間のビデオを生成することができます。

  • APIを通じたStable Video Diffusionの活用に関心のある開発者は、Stability AI Developer Platformで今すぐアクセスできます。

私たちの基盤となる画像-動画モデルであるStable Video Diffusionが、Stable AIのDeveloper Platform APIに追加されました。この新しい追加機能により、広告、マーケティング、テレビ、映画、ゲームなど、さまざまな分野向けに設計された最先端の動画モデルへのプログラムアクセスが可能になります。このリリースの目的は、高度な動画生成を製品にシームレスに統合する効率的な方法を開発者に提供することです。

性能と安全性を重視したStable Video Diffusionは、フレーム補間による24fpsの映像出力に加え、安全対策や電子透かしなどの機能を搭載しています。このモデルは、25フレームの生成フレームと24フレームのFILM補間からなる2秒間の映像を、平均41秒で生成することができます。

開発者は、動きの強さの制御や、1024x576、768x768、576x1024などの複数のレイアウトと解像度のサポートなどの機能を通じて、その能力をフルに活用することができます。このモデルは、jpgやpngなどの画像フォーマットにも対応しています。シードベースの制御により、開発者は繰り返し生成かランダム生成かを選択できます。最終的なビデオ出力はMP4形式で提供されるため、さまざまなアプリケーションやプラットフォームに簡単に統合できます。

さらに、マルチモーダルニーズのために、Stability AI Developer プラットフォームは、text-to-image モデルである Stable Diffusion XL を含む、さまざまな画像生成モデルを提供しています。

詳細は Stability AI Developer Platform をご確認ください。

私たちは、皆さまがコスト、パフォーマンス、柔軟性、およびプライバシーのニーズに応じて、どこででも、どのような方法でも、モデルにアクセスできることを望んでいます。モデルをご自身でホストされたい場合は、Stability AI membership をご利用ください。

Stable VideoのWebインターフェースにいち早くアクセスするためのウェイティングリストもあります。登録はこちら からお願いします。 

Previous
Previous

映画「死が美しいなんて誰が言った」の裏側: Stable Diffusionを活用した新時代の映像制作への一歩

Next
Next

「坂本龍一トリビュート展」にてSDXL Turbo が使用されます