動画生成AIがオープンソースで一般公開!?無料で使えるオープンソースAI「Zero Scope」を紹介、Runwayに続く新勢力!?

こんにちは、よたろです。

生成系AIの話題を最近、いろんなところで聞くようになりましたね。

動画を生成するAIもRunwayから発表された、Gen1やGen2が話題になりました。

Gen2は、テキストから新しい映像を生成できてしまいます。

いよいよ映像もAIが作れる時代になってきました。

そんな中で、「Zeroscope」というオープンソースの動画生成AIがあるぞ、と話題になっていることを見つけたので紹介させてください。

ZeroScopeについて

Zeroscopeは、無料で使える、オープンソースのようです。

こちらのページで実際に映像を作ることが試せるみたいです。

https://huggingface.co/spaces/fffiloni/zeroscope より

Zeroscopeを使ってみる

ちなみに、上記のサイト、なんかアイコン的に怪しそうなサイトですが、そうでもありません。

https://huggingface.co/ より

Hugging Faceという、AIや機械学習系に特化した実行環境やコードを共有しておくようなサービスみたいです。

詳しくはわかりませんが、AmazonやGoogleもこのサービス使ってるみたいなので、安心して利用して良いでしょう。

さて、Zeroscopeに話を戻します。

Zeroscopeには、 いくつかのモデルがありようです。

今回は、Zeroscope_v2 567wというデフォルトのモデルを使ってみます。

576 × 320 ピクセルの解像度で、素早く生成したい時に活用されるモデルを使ってみます。

これ以外にも、より解像度の高い映像を作るモデルもあるみたいです。

実際に使ってみる

今回は、567wの方を利用してみます。

使い方は簡単で、テキストを入力するだけ。

あとは送信ボタンを押して待つことで、動画がつくられます。

今回は、試しに、「海の近くで、夕方に、夕焼けを見ながらリラックスして座っている少年が一人いるシーン」を、英語に直して、映像を作ってみます。

Near the ocean, in the evening, one boy sits relaxing, watching the sunset.

映像が作られるまで、5分ほどかかりましたが、3秒の映像が出来上がりました。

https://huggingface.co/spaces/fffiloni/zeroscope より

正直、テキストだけでこれだけの高画質な映像を作れるのは、とても驚きました。

Runwayが公開しているGen-1で作られた動画と、同等のクオリティの高さを感じます。

入力が、テキストだけなので、雑な絵が出来上がるんだろうか、と思っていましたが、まあまあのクオリティで驚きました。

これが、無料で公開されているのは、すごいです。。。

おわりに

今回は、動画生成AIのオープンソースとして無料公開されている「ZeroScope」を紹介させていただきました。

RunwayのGen1などを触った感覚からすると、「ZeroScope」もGen-1同様に、かなり高画質な映像が作れている印象です。

これから、動画生成AIのデファクトスタンダードになるのは、一体どれになるのか、今後も注目してみていきたいですね!

ではまた!

Zeroscopeを使ってみる