【検閲なし】低スぺでもOK!クラウドで動画生成AIを使う方法

生成AI
記事内に広告が含まれています。

ここ数年、動画生成AIはとてつもない速度で進化していますが、一方で高スペックでないと実行が難しいのが現状です。

かといって動画生成サービスは料金が高く、また検閲が厳しいため自由に作成することができません。

そこで本記事では、クラウドGPUを使って動画生成AIを実行する方法について解説します。

クラウドで実行することで1時間1$以下で動画を作りたい放題になり、また制限もありません。

なるべく丁寧に説明していきますので、参考になれば幸いです。

スポンサーリンク

Runpodのアカウント作成

クラウドGPUとしてRunpodを使います。Runpodは比較的新しいサイトですが、料金が安くUIも分かりやすいのでおススメです。

上のボタンからトップページにアクセスし、右上のSign Upからアカウント登録します。

登録が終わったらマイページに移動するので、左のメニューにあるAccount>Billingから料金のチャージをします。

GPUを使用した時間に応じてチャージした料金から引かれていく仕組みです。なので他サイトのように気づいたらとんでもないお金が請求されたといった事はありません。

25$、50$、100$のボタンがありますが、10$以上ならば自由に入力できます。

クレジットカードと仮想通貨で支払いが出来ますが、ここではカードを使用し、Pay with Cardで支払います。

Balanceに支払った額が追加されたら完了です。

ちなみに下側のConfigure Auto-Payを使えば自動支払いが可能ですが、個人的には都度支払いで十分だと思います。

GPUを借りる

左側のメニューのManage>PodsからGPUの選択画面になります。

まずは上にあるAdditional Filtersから、CUDA Versionsを12.8に変更します。

条件に一致するGPUが表示されるので、L40を選択します。もしUnavailableとなっている場合は空きがない状態です。

空きが出るまで待つか、L40SRTX5090などを代わりに選択して下さい(性能面でエラーが発生する可能性があります)。

GPUを選んだら、Pod Templateに「One Click – ComfyUI Wan t2v i2v VACE – CUDA 12.8」を選択します。

何故か検索しても出ない時があります、その時はone clickだけで検索してみてください。

Pod Templateは有志の方が作成しているもので、これを使うことで簡単に環境構築ができます。

上の画像のように選択したら、Edit Templateから設定を行います。

Public Environment Variablesを開きダウンロードするAIモデル、Loraを入力します。

falseと入力されている部分はモデルのダウンロードを行うか否かの設定(falseもしくはtrue)

それ以外はLora等をダウンロードする設定になります。

本記事ではdownload_480p_native_modelstrueと入力しSet Overridesして下さい。

Loraを使いたい人は下の設定方法を参考に、使わない人は次に進んでください。

注:Civitaiのアカウントが必要です。

Edit Template>Public Environment Variablesを開きます。

Civitaiのアカウント設定にあるAPI Keysより、APIキーを追加します。

作成したAPIキーをコピーしcivitai_tokentoken_hereに入力します。

次に使いたいLoraのページに行き、右側のDetailsにあるAIRからVersion IDをコピーします。

Version IDは右側のIDのみなので注意して下さい。

コピーしたIDをLORAS_IDS_TO_DOWNLOADreplace_with_idsに入力します。

複数のLoraを使用したい場合はカンマ区切り(,)で入力します。

最後にSet Overridesで上書きして下さい。

Instance PricingでOn-Demandが選ばれている事を確認し、Deploy On-Demandからデプロイします。

デプロイ後から時間単位で料金が発生します(上の画像の場合は1時間当たり0.99$)。

Podが立ち上がり、自動で環境構築が行われます。完全に終わるまで数分かかるので気長に待ちましょう。

環境構築が完了すると、Connect>ComfyUIReadyになるので、クリックして接続します。

ComfyUIの使い方

ComfyUIの左側のメニューのワークフローから、使用したいワークフローを選択します。

画像から動画にしたい場合はLegacy-Native-I2V-32FPS.json

テキストから動画にしたい場合はLegacy-Native-T2V-32FPS.json

本記事ではI2V-32FPSを選択します。

ワークフローが表示されるので、まず左側のLoadersにあるDiffusion Model Loader KJの確認をします。

model_nameがwan2.1_i2v_480p_14B_bf16.safetensorsになっていればOKです。違う場合はモデルを変更してください。

これが動画生成で使用するモデルになります。

次にGlobal Settings(Image2Video)を確認してください。

ここに生成したい動画のプロンプトとネガティブプロンプトを入力します。

また、Input Imageから生成元の画像をアップロードできます。

右上の幅と高さで動画のサイズを決められます。

最後に、Loraを使用したい人はLoad Lorasより設定します。

いくつかのLoraはデフォルトで入っています。自分で追加したものはAdd Loraから選択できます。

それぞれの設定が終わったら、下にある実行するボタンを押すと動画が生成されます。

動画のダウンロード

Podの管理画面に戻り、Connect>JupyterLabをクリック。

左側のメニューからComfyUI>outputを選択すると、作成された動画があるので右クリックからDownload。

動画は作成するたびにここに連番で保存されます。

ダウンロードしなかった動画はPodの終了時に消えるので注意。

Podの終了(GPUの返却)

動画の作成が終わったらPodを終了しましょう。

Podを終了すると作成した動画を含む全てのデータが削除されます。

Podの管理画面を開き、Terminateをクリックします。

Podが消え、選択画面に戻されれば削除完了です。

まとめ

以上、クラウドで動画生成AIを使う方法でした。

何か分からない事がありましたらコメント欄に書いていただけると助かります。

コメント

タイトルとURLをコピーしました