この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 AI動画撮影ってこんなにスムーズになったのか? ビデオを入力して「呪文」を唱えると、AI がそれを即座に理解し、その場でビデオを再描画します。 あらゆるスタイルを完璧に保持するだけでなく、最も重要なのは、すべてのフレームがシルクのように滑らかであることです。 建物のようなより詳細な映像でも、「AI によって生成された」バグを見つけることはほとんど不可能です。 現在、動画の撮影でもアニメーションの作成でも、すべて「キーフレーム」に依存しています。フレームが密接に接続されていない場合、この奇妙な「ちらつきスタイル」が表示されます。 これは、AI 生成ビデオの最大のボトルネックの 1 つでもあります。 現在、南洋理工大学のチームがついにこの課題を解決し、その研究はTwitter上で大きな話題を呼んでいる。 それで、これはどのように行われるのでしょうか? AI撮影した動画のちらつきを防ぐにはどうすればいいですか?AI によって生成されたビデオは「ちらつき」ますが、これは基本的に、前のフレームと後続のフレーム間の不一致によって発生します。 たとえば、同じビデオの 2 つのフレームを次に示します。 AI を使用して、この 2 つのフレームに基づいて画像を「再描画」することは、一見すると大きな問題ではないように思えるかもしれませんが、細部にはかなりの違いがあります。 たとえば、あるフレームで生成されたキャラクターの頭には「金色のヘッドバンド」が付いていますが、別のフレームでは消えてしまいます。 このように、AI によって生成された数十フレームの画像は、似たようなスタイルを持っているように見えますが、つなぎ合わせると細部が大きく異なり、動画がちらつきやすくなります。 この目的のために、研究者らは、AI がビデオを生成する際にフレーム間の一貫性を向上させることを中核とする新しいフレームワークを提案しました。 このフレームワークは、キーフレーム変換と完全なビデオ変換の 2 つの部分で構成されます。 最初の部分では、拡散モデルに基づいてキー フレームを生成し、フレーム間の制約に基づいてこれらのキー フレーム間の一貫性を強化します。2 番目の部分では、時間を考慮したマッチング アルゴリズムを使用して、他のフレームをキー フレームに「接続」します。 フレームワークの核心は最初の部分にあります。 研究者らはこの部分に対して、新しい階層型フレーム間一貫性制約法を提案した。元のビデオに基づいて、オプティカルフローを使用してフレーム間の関係を制約する。 そのうち、最初のフレームはビデオ全体の「アンカー ポイント」に相当し、ビデオの全体的な方向を制御するために使用されます。後続の各フレームは、生成された画像が元のスタイル、形状、テクスチャ、色から逸脱しないように、前のフレームを参照として使用します。 動画生成モデルについては、Stable Diffusion+ControlNetの組み合わせが核となっていますが、改良が加えられています。 下の図に示すように、赤い点線は安定拡散モデルおよびその他の拡散モデルの元のサンプリング プロセスであり、黒い線は調整されたプロセスです。 もちろん、異なるサンプリング段階では、形状認識、ピクセル認識など、フレーム間の制約も異なります。 これまでのAI動画生成モデルと比較すると、このフレームワークの最大の利点は、新しい動画が入力されても、動画素材で再トレーニングする必要がないことです。つまり、ゼロサンプル学習です。 プロンプトワードとビデオを入力するだけで、フレームワークがビデオを希望する効果に自動的に「翻訳」します。 たとえば、これはチームが改良されたフレームワークを使用して再生成した同じスタイルのビデオであり、改良前の拡散モデルと比較してちらつきがほとんどありません。 14秒ごとにキーフレームを生成するでは、ビデオの生成には長い時間がかかりますか? 少なくともフレーム生成効率の観点からは、速度は遅くありません。キーフレームと安定拡散の速度は似ており、平均約14.23 秒です。非キーフレームは非常に高速で、1 フレームあたりわずか1.49 秒しかかかりません。 ビデオが長くない場合、またはフレームが 12 個しかない場合、ビデオの変換は 1 分以内に完了します。 著者らは、この新しいフレームワークを、FateZero、vid2vid-zero、Pxi2Video、Text2Video-Zero などの以前のビデオ フレームワークと比較しました。明らかに、新しいフレームワークは現時点で最もスムーズで、ゴーストが最も少ないです。 著者らは、単なる「ビデオ翻訳」ではなく、プロンプトワードがビデオ生成に及ぼす制御効果も実証しました。 たとえば、同じ入力で、プロンプトの「キーワード」を変更するだけで、AI は髪型やスタイルを変更したり、犬の頭をキツネの頭に置き換えたりするなど、他の要素を変更せずに新しいビデオを生成できます。 さらに、著者らは 23 人のボランティアを招き、新しいフレームワークによって生成されたビデオの品質の総合的な評価を実施しました。評価指標は、プロンプト ワードと入力フレームの相関関係、時間的一貫性、ビデオの全体的な品質の 3 つです。 結果は、このフレームワークが「人間によるスコアリング」において良好なレベルを達成したことを示しています。 第一著者:北京大学卒業生著者4人は全員、南洋理工大学の出身です。 第一著者の楊帥は南洋理工大学の助教授です。楊は北京大学で学士号と博士号を取得しました。楊の現在の研究分野は、ポートレートベースの編集、テキストの様式化、画像翻訳です。 周一凡は南洋理工大学の研究エンジニアです。北京理工大学で学士号を取得し、ACM-ICPC 金メダルを獲得しました。彼の研究対象には、テキストマイニングや機械学習に基づく入射光場の再構築などがあります。 Liu Ziwei 氏は、南洋理工大学の助教授であり、香港中文大学の博士課程の学生です。彼の研究分野は、コンピューター ビジョン、機械学習、コンピューター グラフィックスです。 Chen Change Loy 氏は、南洋理工大学と香港中文大学の准教授です。彼の研究対象は、画像とビデオの復元と生成、表現学習など、コンピューター ビジョンとディープラーニングです。 このプロジェクトのコードはまだオープンソースではありませんが、論文では「利用可能になる予定」と述べられています。 実際のテスト結果が楽しみです。 プロジェクトアドレス: https://anonymous-31415926.github.io/ 論文アドレス: https://arxiv.org/abs/2306.07954 |
<<: 最新の RLHF は言語モデルの「ナンセンス」を救います!微調整効果はChatGPTよりも優れている、と中国の共著者2人が発表
>>: イタリア首相がマスク氏と会談、AIや出生率などを議論
ディープニューラルネットワーク技術の発展に伴い、新しいネットワークアーキテクチャが絶えず登場していま...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
IT Homeは11月7日、マイクロソフトがInworld AIと協力し、開発者がAIベースのキャ...
[[355495]]人類社会は情報化から知能化へと移行しています。人工知能は知能化を実現するための重...
GPT には画像認識機能があるため、さらに強力になり、特に ChatGPT のビジュアル テクノロ...
大企業であれば、最近の AI ブームは見逃せないものであり、現在、AI はコンテンツ生成から自動化や...
この記事は、行列の性質、行列の原理、行列の応用という 3 つの側面から、人工知能の数学的基礎である線...
長い間、肉体的に過酷で危険な仕事が特徴とされてきた石油産業は、変革を遂げつつある。この変化は、通信技...
高い信号対雑音比を備えた蛍光イメージングは、生物学的現象の正確な可視化と分析の基礎となっています...
個人ユーザー向けの Microsoft Copilot メンバーシップ バージョンはここにあります。...
昨年上半期、メディアはかつてアンドリュー・ン氏が妻のために百度を去ったという話題を熱く議論していた。...
「万能トランスフォーマー」として知られるマンバは、発売から2か月も経たないうちに高性能ビジュアルバー...
今年の春節祝賀会には、有名人よりも人気のある特別な俳優たちがいます。書道をしたり、ダンスをしたり、腕...
[[219484]] 2017 年に 1 年間眠っていたのに、突然目が覚めて、今年世界で最も誇るべ...