Wan 2.2 Animateのワークフローはどこ? (2025-9-19) #ComfyUI

Cover Image for Wan 2.2 Animateのワークフローはどこ? (2025-9-19) #ComfyUI
AICU media
AICU media

2025年9月19日に開催されたComfyUIの公式ストリームでは、ゲストにビデオアーティストのTrent Hunter氏(Flipping Sigmas)を迎え、新登場のAIビデオ生成モデル「WAN Animate」の徹底解説とライブデモンストレーションが行われました 。既存のVACEモデルとの比較を通じて、被写体と動きを分離して処理する新しいアプローチや、低VRAMでの高解像度生成を可能にする卓越した効率性が明らかにされました 。ストリームでは最新の「Wan 2.2 Animate」について、Kajai氏が開発したカスタムノードを用いた具体的なワークフローのセットアップ方法が紹介されたほか、視聴者からのアドバイスを元にリアルタイムで問題を解決するなど、オープンソースコミュニティの協力的な文化を象徴する活気ある内容となりました 。


チャプター1: オープニングとゲスト紹介

司会者: 「ハロー、皆さん。ComfyOrgのストリームへようこそ。」

この日のストリームでは、司会者 Purz (X@PurzBeats) のもと、Fill と、ゲストとして「Flipping Sigmas」としても知られるTrent Hunter氏 (X@

">FlippingSigmas) が参加しました。

Trent氏は自己紹介で、もともと「Warp Fusion」からAIビデオ制作の世界に入り、その後ComfyUIに完全に夢中になったと語りました。彼の作品が映画会社の目に留まり、それが現在の本業に繋がったとのことです。AIにのめり込むきっかけは、MidJourneyでテキストから画像が生成された瞬間に、「これはすぐにビデオになる」と直感したことだったと振り返りました。

チャプター2: オープンソースコミュニティの力

Trent: 「このコミュニティの力は、誰もがお互いの功績の上に(新しいものを)築き上げていけることにあると思います。」
ストリームでは、ComfyUIを取り巻くオープンソースコミュニティの文化についても語られました。Trent氏は、過去にセットアップで困っていた際、見知らぬ人が30分も時間を割いて助けてくれた体験談を披露し、人々が助け合うコミュニティの素晴らしさを強調しました。

司会者もこれに同意し、「誰かが何かを発見したら、それを独り占めせずにすぐに共有する。それがこのコミュニティの最大の強みです」と述べました。この共有の精神が、技術の急速な発展を支えているという点で、参加者の意見は一致しました。

チャプター3: コミュニティチャレンジの発表

司会者: 「先週のコミュニティチャレンジは、提供されたソースビデオからポーズをコントロールしたビデオを作成する、というものでした。」
先週開催されたコミュニティチャレンジの結果が、コミュニティ責任者のJoe氏が編集した素晴らしいモンタージュビデオと共に発表されました。参加者たちのハイレベルな作品に、一同は感嘆の声を上げました。

Comfy Challenge #4 Montage "Pose Alchemy"

Comfy Challenge #4 Montage

"Pose Alchemy"
Using the provided reference poses to control character dynamics.

Here are dozens of highlight videos from our community and check the recommended workflow on how to do it 👇 pic.twitter.com/xoKiqVTvz1

— ComfyUI (@ComfyUI)

[ **"Pose Alchemy": Comfy Challenge #4 Montage & #5 Reveal ** The winner reveal and the announcement for week #5 blog.comfy.org ](https://blog.comfy.org/p/pose-alchemy-comfy- challenge-4-montage)[](https://blog.comfy.org/p/pose-alchemy-comfy- challenge-4-montage)


深掘りレポート:WAN AnimateとVACEモデルの比較議論

作品の講評に関連して、Fill氏による WAN AnimateとVACE Fun model を比較する議論がありました。この議論は、AIビデオ生成技術がいかに驚異的なスピードで進化しているかを象徴する場面から始まります。

コミュニティチャレンジで発表された、ポーズコントロール技術を駆使した素晴らしい作品群に対し、チャットから「Juan Anime(WAN Animate)はこれを破壊する(凌駕する) 」というコメントが寄せられました。

これを受け、司会者は「この技術は発表されてまだ1週間なんですよ」と笑いながら述べ、先週の時点では最先端だったものが、新しいモデルの登場によって一瞬で過去のものになるという、この分野の異常な開発速度を指摘しました。技術の陳腐化と進化のスピードの速さです。このやり取りは、これから解説されるWAN Animateが、既存の技術からいかに大きな飛躍を遂げたかを示唆する導入となっています。

視聴者から「WAN Animateと既存モデルとの違いは何か?」という質問が寄せられたことをきっかけに、より技術的な比較へと話が進みます。

共通点として両モデルは、最終的な目的においては非常に似ています。どちらも、

  • キャラクターの参照画像

  • ポーズを制御するための情報 (深度マップ、Cannyエッジ、OpenPoseなど)

これらを入力として、キャラクターが一貫性を保ったまま動くビデオを生成します。

相違点は、その目的地に至るまでのアプローチ、つまり内部的な仕組みが異なると解説されています。

  1. 異なる学習方法 : 根本的な違いは、学習に使われたデータセットやモデルのトレーニング方法にあると推測されています。

  2. 「被写体」と「動き」の処理 : 最も重要な違いとして、WAN Animateは「被写体(subject)」と「動き(movement)」をVACEとは少し異なる方法で処理する点が挙げられました。これは、WAN Animateが単にスタイルを適用するだけでなく、ビデオ内の被写体をより明確に認識し、参照画像のキャラクターと精密に「置き換える」能力に長けていることを示唆しています。

  3. 「Mixモード」の存在 : 司会者が特に注目しているのが、Kajai氏のカスタムノード(KJ nodes)と連携して機能するWAN Animateの「Mixモード 」です。これは「非常に特別なものになる」と大きな期待が寄せられており、後のデモンストレーションで示される高度な被写体置換機能の核となる部分です。

効率性の革命:低VRAMでの高解像度生成。議論の中で、WAN Animateのもう一つの大きな利点として、卓越したVRAM効率 が挙げられました。司会者は、先行アクセスで試した際に1280x720という高解像度にもかかわらず、使用VRAMが20GB未満だった と報告しています。これは、これまでハイエンドなGPUでしか不可能だった高品質なビデオ生成が、より一般的な環境でも実現可能になることを意味し、コミュニティにとって非常にエキサイティングな進歩と言えます。


続いて、今週の新しいチャレンジとして「一人称視点のフライト」がテーマであることが発表されました。要件は以下の通りです。

  • テーマ: 一人称視点の飛行シーン

  • アスペクト比: 1x1(正方形にクロップされることを想定)

  • 長さ: 20秒未満

  • 賞品: 100ドルの現金、または200ドル相当のComfyUIクレジット

  • 締切: 9月22日午後7時(太平洋時間)

🪽Comfy Challenge #5: "Infinite Flight"
First-person Flying Scenes

We'll be looking for creativity in the scene and story, along with smooth, high-quality motion!

🏆 $100 cash or $200 ComfyUI credits

Let's fly in daydreams together! pic.twitter.com/O1RosSrROb

— ComfyUI (@ComfyUI)

チャプター4: WAN Animateワークフローの解説

司会者: 「さあ、皆さんお待ちかねの、今日のメインテーマに移りましょう。このワークフローはどこにあるんだ?送ってくれ!と聞かれる前に言っておきますね。」

この日、中心的に解説されたのは、新しく登場したWAN Animate モデルを最大限に活用するためのワークフローです。司会者は、このワークフローが特別なものではなく、魔法でもなく、誰でも入手可能だと強調しました。

ワークフローの入手とセットアップ

このワークフローは、Kajai氏が開発したカスタムノード「[WAN video wrapper](https://github.com/kijai/ComfyUI- WanVideoWrapper)」にサンプルとして同梱されています。入手の手順は以下の通りです。

  1. ComfyUI Managerの「Install Custom Nodes」から「WAN video wrapper」を検索してインストールします。

  2. インストール後、ComfyUIを再起動します。

  3. 画面右側のメニューから「Browse Templates」をクリックすると、利用可能なテンプレートの一覧が表示されます。

  4. その中から「WAN video wrapper templates」セクションにある「WAN animate example one」を選択します。

これを読み込むと、今回使用するワークフローがキャンバスに展開されます。初めて読み込む際は「必要なカスタムノードが多数見つかりません」というエラーが表示されるかもしれませんが、Managerから不足しているノードをすべてインストールすれば問題ありません。

最重要の注意点:アップデート

司会者は、このワークフローを正常に動作させるために、絶対に不可欠な前提条件 として以下の3つを必ず最新バージョンにアップデートする よう、繰り返し強調しました。

  • ComfyUI本体

  • WAN video wrapper (カスタムノード)

  • KJ nodes (カスタムノード)

これらの一つでも古いバージョンのままだと、様々なエラーが発生し、ワークフローは正しく機能しません。

ワークフローの仕組みと必要なモデル

このワークフローは、参照画像 (キャラクターの見た目)とソースビデオ (キャラクターの動き)の2つを入力として使用します。そして、Kajai氏がこのワークフローのために特別に開発したノード群を使い、ソースビデオ内の被写体を自動で検出し、ブロック状の特殊なマスク を生成します。このマスク領域を参照画像のキャラクターに置き換えることで、動きを維持したまま見た目を入れ替える「被写体置換 」を実現します。

ワークフロー内には、必要なチェックポイントモデル、LoRA、VAEなどをダウンロードするためのリンクが記載されたメモ欄も用意されています。特に「LiteX」という名前のLoRAは必須です。このワークフローはわずか6ステップという非常に少ないステップ数で画像を生成するため、このような高速生成に特化したLoRAがないと、出力される映像は非常に質の低いものになってしまいます。

司会者はまた、WAN Animateモデルには動きを転写する「move」機能と、被写体を置き換える「mix」機能があり、現在ComfyUIの標準機能として統合が進んでいるのは「move」機能であると補足しました。このデモで紹介されている高度な「mix」機能を試すには、現時点ではこの「WAN video wrapper」を使用する必要があるとのことです。


チャプター5: ライブデモンストレーションと試行錯誤

Fill: 「うわ、すごい!これは…顔の表情まで完全に追従してるじゃないか!まるで唇の動きを読み取っているみたいだ。」

デモンストレーションは、参加者であるFill氏の顔写真を使い、女性が情熱的にダンスする動画に適用するところから始まりました。生成された映像を見た一同は、そのクオリティに驚愕します。単に顔が置き換わっているだけでなく、元の動画の女性の笑顔や口の動きといった細かな表情の変化まで、Fill氏の顔でリアルに再現されていた のです。ワークフローを詳しく確認すると、顔の画像を専門に処理する入力系統があり、モデルが表情を正確にトラッキングしていることが判明しました。

視聴者と共に進めるトラブルシューティング

デモの途中、生成解像度を1280x720に上げた際に、被写体を特定するためのマスク生成ポイントが大きくずれてしまうという問題が発生しました。一同が解決策を模索していると、チャットの視聴者から「Blockify maskノードのブロックサイズを8にしてみては?」という的確なアドバイスが寄せられます。

実際に試してみると、これまで大雑把だったマスクが非常にタイトで精密なものに変化し、問題は劇的に改善されました。この一連の流れは、コミュニティ全体でリアルタイムに問題を解決していく、オープンソースならではのライブ感を象徴していました。

限界を探る実験の数々

このワークフローの能力を探るため、様々な実験が行われました。

  • プロンプトの影響: 「プロンプトは重要ですか?」という質問に対し、司会者は「wibbly, wobbly, bongle, snop(意味のない言葉の羅列)と入力しても、おそらく全く同じ結果になるよ」とジョークを交えて回答。このワークフローは参照画像から情報を得るため、テキストプロンプトの影響はほとんどないことが示唆されました。

  • イラストへの挑戦: 次に、人間ではないアニメ風のキャラクター画像を入力として使用しました。その結果、ビデオは「Netflixの実写アニメみたいだ」と評される、実写の動きとイラストの質感が融合した、非常にユニークでアーティスティックなスタイル に変換されました。

  • 混沌と傑作の誕生: 最も盛り上がったのは、司会者がふざけて馬のマスクを被った人物の動画 に自身の顔写真を適用した実験です。生成された映像は、司会者の顔のテクスチャが馬の頭部に不気味に貼り付けられ、引き伸ばされた、まさに悪夢のような光景 となりました。参加者たちは「神よ、なんてことだ」「これはひどい!」と大笑いしながらも、その技術的な忠実さに感心していました。

デモンストレーションを通して、サンプラーを「Euler」に変更すると結果が改善されることや、マスクのポイントを手動で調整してから再実行する方法など、多くの実践的なテクニックが発見・共有されました。このセッションは、最新技術を楽しみながら探求する、ComfyUIコミュニティの活気ある雰囲気をそのまま映し出すものとなりました。

チャプター6: Q&Aと今後の展望

視聴者: 「ComfyUIは複数のGPUを使った並列処理をサポートしていますか?」

視聴者からの質問に対し、司会者は「現状、一つのタスクを複数GPUに分散させるのは難しいですが、複数のタスクをそれぞれのGPUで同時に実行する形での並列化は非常に効果的です」と回答しました。

また、司会者はこの日のワークフローが非常に高度なものであると述べ、「もしあなたがComfyUIを始めたばかりで、このワークフローがうまく動かせなくても、全く気にする必要はありません。これは難しいものです」と初心者を励ましました。

将来的には、ComfyUIの環境構築やトラブルシューティングに役立つ、Pythonや開発環境に関する基礎的な内容を解説するストリームを企画したいとも語られました。

チャプター7: クロージングとコミュニティイベントの告知

司会者: 「同じニッチなものが好きな人たちが集まる場所に行けば、すぐに友達になれます。オフラインのイベントは本当に素晴らしい体験ですよ。」

最後に、オフラインでのコミュニティイベントに参加することの素晴らしさが語られました。サンフランシスコ、スリランカ、ニューヨーク、ロサンゼルスなど、世界中でComfyUIのイベントが開催されていることが告知されました。

ComfyUI Meetup Sri Lanka · Luma Join us for the ComfyUI Meetup Sri Lanka – the first communit luma.com

司会者はゲストのTrent氏と視聴者に感謝を述べ、ストリームは締めくくられました。

⭐️Originally broadcasted "Wan 2.2 Animate in ComfyUI with Flipping Sigmas" / September 19th, 2025

Wan 2.2 Animate in ComfyUI with Flipping Sigmas / September 19th, 2025 https://t.co/l14OfccFJ3

— ComfyUI (@ComfyUI)