AI ビデオ カットアウトの威力: 映画レベルの効果を実現するのに「グリーン スクリーン」は不要

AI ビデオ カットアウトの威力: 映画レベルの効果を実現するのに「グリーン スクリーン」は不要

今朝早く、ネットユーザーが私に人気の AI プロジェクトを勧めてくれました。

世界中を旅して、アンジェラベイビーがもっとテレビシリーズを撮影できるようになると聞きました。

何が起こっているのか? ?

よく見てみると、これは早朝から GitHub のホットリストに載っていた AI ビデオ切り抜きツールであることがわかりました。

公式紹介によると、この AI アーティファクトにより、ビデオ処理が非常にシンプルかつプロフェッショナルになり、「グリーン スクリーン」を必要とせずにリアルでシームレスな合成効果を実現できます。

やはり、労働者が「世界を旅する」ことを可能にするのはAIだけですね(涙)。

実は動画切り抜きAIは数多く存在していますが、これは本当にすごいです。まずはデモ版を見てみましょう。

道路背景と海背景の動画のうち、どちらがAIで合成されたものかわかりますか?

髪をアップにしても欠点は見当たりませんでした。

そして狂ったように踊っても合成効果には影響しません。

後ろの切り抜き部分も細かく見てみましょう。髪の毛が忠実に再現されているだけでなく、浮いている髪の毛まで再現されています…

ダイナミックエフェクトでも同様で、頭を激しく振ることで詳細をリアルタイムでキャプチャできます。

この超強力な AI 切り抜きツールは、香港城市大学と SenseTime の共同研究チームによって開発されたもので、論文の第一著者は Zhang Hanke という博士課程の学生です。

次に、その背後にある技術的な原理を見てみましょう。

MODネット

重要なのは、この AI が軽量のターゲット分解ネットワーク MODNet (Matting Objective Decomposition Network) を使用しており背景が異なる単一の入力画像から動的なポートレートをスムーズに処理できることです。

簡単に言えば、ビデオからポートレートを切り取る機能です。

一部の映画やテレビ番組、特に時代劇では、登場人物の背景を後処理する必要があることはよく知られています。リアルな合成効果を実現するために、撮影時の背景には「グリーンスクリーン」が使用されるのが一般的です。グリーンスクリーンを使用すると、高品質のアルファマスクを作成して、画像やビデオから人物をリアルタイムで抽出できるためです。

さらに、グリーン スクリーンがない場合、事前定義されたトライマップが自然照明アルゴリズムへの入力として使用される場合でも、一般的に使用される技術的手段は照明処理です。このアプローチでは、決定された(不透明)前景、決定された(透明)背景、およびその間の不明な(不透明)領域からなる、ほぼ 3 次元のマップが生成されます。

3D マップに人間による注釈を使用するとコストがかかるだけでなく、深度カメラを使用すると精度が低下する可能性もあります。そこで、上記の欠点を解決するために、研究者はターゲット分解ネットワーク MODNet を提案しました。

図に示すように、MODNet は相互に依存する 3 つのブランチ (S、D、F) で構成されています。これらはそれぞれ、低解像度ブランチを通じて人間の意味 (SP) を予測し、高解像度ブランチを通じて垂直境界の詳細 (DP) に焦点を当て、最後に融合ブランチを通じてアルファマット (αp) を予測します。

詳細は以下の通りです。

  • セマンティクス推定:MobileNetV2[35]アーキテクチャは、エンコーダ(MODNetの低解像度ブランチ)を通じて高レベルのセマンティクスを抽出するために使用されます。

  • 詳細予測: 前景ポートレートの周囲の遷移領域を処理し、I、S(I)、S の低レベルの特徴を入力として受け取ります。同時に、畳み込み層の数、チャネル数、入力解像度が最適化されました。

  • セマンティック詳細融合: セマンティクスと詳細を融合する CNN モジュール。S(I) をアップサンプリングしてその形状を D(I, S(I)) と一致させ、次に S(I) と D(I, S(I)) を連結して最終的な αp を予測します。

さらに、本研究では、上記の基礎フレームワークに基づいて、自己監督戦略SOC(Sub-Objectives Consistency)とフレーム遅延処理方式OFD(One-Frame Delay)も提案しました。

その中で、SOC 戦略は、ラベルなしデータを処理する際に MODNet アーキテクチャの出力サブゴール間の一貫性を確保できます。OFD メソッドは、ポートレート マッティング ビデオ タスクを実行する際に、スムーズなビデオ シーケンス内のアルファ マスクを予測できます。以下のように表示されます。

実験的評価

実験評価を行う前に、研究者らは写真ポートレートのベンチマーク データセット PPM-100 (写真ポートレートマッティング) を作成しました。

さまざまな背景の細かく注釈が付けられた肖像画画像 100 枚が含まれています。サンプルの多様性を確保するために、PPM-100 では、人体全体が含まれているかどうか、画像の背景がぼかされているかどうか、他のオブジェクトが含まれているかどうかなど、サンプルの種類のバランスをとるためのいくつかの分類ルールも定義されています。図に示すように:

PPM-100 のサンプル画像には、豊かな背景とキャラクターのポーズが描かれています。したがって、より包括的なベンチマークと見なすことができます。

それでは実験結果を見てみましょう。

この図は、MODNet が MSE (平均二乗誤差) と MAD (平均) の両方で Trimap を使用しない他の方法よりも優れていることを示しています。そのパフォーマンスは Trimap を使用した DIM ほど良くはありませんが、MODNet を Trimap ベースの方法に変更すると、つまり Trimap を入力として受け取ると、Trimap ベースの DIM よりもパフォーマンスが向上し、MODNet の構造システムが優れていることが再び示されます。

さらに、研究者らは、モデルのサイズと実行効率の面での MODNet の利点をさらに実証しました。

このうち、モデルサイズはパラメータの総数で測定され、実行効率は NVIDIA GTX1080 Ti GPU 上の PPM-100 を超える平均参照時間で反映されます (入力画像は 512×512 にトリミングされます)。結果は以下のようになります。

上図は、MODNet の推論時間が 15.8ms (63fps) であり、FDMPA (31fps) の 2 倍であることを示しています。 MODNet は FDMPA よりもわずかに多くのパラメータを持っていますが、パフォーマンスは大幅に優れています。

モデルにはより大きな特徴マップや、注意メカニズムなどの時間のかかるメカニズムがある可能性があるため、パラメータが少ないことが推論速度の高速化を意味するわけではないことに注意することが重要です。

要約すると、MODNet は、シンプルで高速かつ効果的なリアルタイムのポートレート切り抜き処理方法を提案します。この方法は、RGB 画像のみを入力として受け取り、シーンの変化に応じてアルファ マスクの予測を実現します。さらに、提案された SOC と OFD により、MODNet は実際のアプリケーションにおけるドメイン シフト問題の影響を受けにくくなります。

残念ながら、この方法では、複雑な衣服やぼやけた動きのビデオなどのコンテンツがトレーニング データセットに含まれていないため、これらのビデオを処理できません。次の段階では、研究者は追加のサブ目標(オプティカルフロー推定など)を追加することで、モーションブラーによるビデオのカットアウトの問題を解決しようとします。

<<:  快手とインテルが提携し、KGNN プラットフォームでの大規模リアルタイム動的グラフトレーニングの効率を向上

>>:  データセンターにおけるAIの役割の拡大

ブログ    
ブログ    

推薦する

人工知能が持続可能な開発を推進する5つの方法

フォーチュン 500 にランクされる世界的なテクノロジー サービス企業 DXC Technology...

孤独を研究していますか? Reddit のホットな話題: AI のゴッドファーザー、ヤン・ルカンが提案した「エネルギー モデル」とは一体何でしょうか?

「エネルギー自己教師学習っていったい何?」と多くのRedditネットユーザーがコメントした。ちょう...

予知保全のための機械学習

[[197940]]要点:将来のシステム障害を監視し、事前にメンテナンスをスケジュールするための予測...

「ロボットが私にそうさせた」:ロボットは人々にリスクを取るよう促すことができると研究で判明

[[404036]] 「仲間からのプレッシャーがリスクの高い行動につながることはわかっています。オン...

自動運転トラックはレベル4を達成する可能性が最も高いが、自動運転車は2022年まで待たなければならない

過去10年間、テクノロジーおよび自動車の専門家は、人間の運転手による積極的な監視や入力なしに公道を走...

ロボット兵士はもはやSFではない

ロボット兵士はまもなく現実のものとなり、戦争作戦の遂行において人間の兵士を支援し、負傷した兵士に医療...

...

シングルトランスフォーマー情報検索、Google は微分可能な検索インデックスでデュアルエンコーダーモデルに勝利

情報検索 (IR) は、インターネットの誕生以来、揺るぎない地位を築いてきました。膨大なデータからユ...

AI監視の影響について知っておくべき3つのこと

IDC によると、世界のデータ量は 2018 年の 33ZB から 2025 年には 175ZB に...

欧州が癌治療における人工知能の新基準を設定

EUCAIM (EUropean Federation for CAncer IMages) プロジ...

意見: 顔認識 - 今後の展望

ここ数週間、世界的なハイテク企業3社(IBM、マイクロソフト、アマゾン)は、警察やその他の法執行機関...

...

マイクロソフト、医療病理学の症例を分析する LLaVA-Med AI モデルを発表

6月14日、マイクロソフトの研究者らは、主に生物医学研究に使用され、CTやX線画像に基づいて患者の病...

PyTorch チームが「すべてを分割」モデルを書き直し、元の実装より 8 倍高速化

今年初めから現在に至るまで、生成AIは急速に発展してきました。しかし、多くの場合、特に PyTorc...

LeCun が喧嘩を始めた、LLM は全く理屈が通らない!大規模モデルの出現は、最終的には文脈学習と切り離せないものである。

大規模言語モデルは推論できますか?出現したさまざまな能力の源は何でしょうか?少し前に、LeCun 氏...