クロスモーダルメタトランスファーに基づく、Meituと大連理工大学の参照ビデオオブジェクトセグメンテーション方法は、1つのステージのみを必要とする。

クロスモーダルメタトランスファーに基づく、Meituと大連理工大学の参照ビデオオブジェクトセグメンテーション方法は、1つのステージのみを必要とする。

導入

参照ビデオ オブジェクト セグメンテーション (RVOS) は、参照テキストに基づいてビデオ シーケンスで参照されるオブジェクトをセグメント化することを目的とした新しいタスクです。半教師ありビデオオブジェクトセグメンテーションと比較すると、RVOS はピクセルレベルの参照マスクではなく抽象的な言語記述のみに依存しているため、人間とコンピューターの相互作用にとってより便利なオプションを提供し、幅広い注目を集めています。

論文リンク: https://www.aaai.org/AAAI22Papers/AAAI-1100.LiD.pdf

この研究の主な目的は、既存の RVOS ミッションが直面している 2 つの大きな課題に対処することです。

  • 2 つのモダリティ間のスケールの一貫性を維持し、テキストによって提供される有用な機能参照を画像機能に完全に統合できるように、モダリティ間でテキスト情報と画像情報を統合する方法。
  • 既存の方法の 2 段階戦略 (つまり、最初に画像レベルでフレームごとに大まかな結果を取得し、その結果を参照として使用し、強化された時間情報の構造的改良を通じて最終的な予測を取得する) を放棄し、RVOS タスク全体を 1 段階のフレームワークに統合する方法。

この点に関して、本研究では、クロスモーダルメタ転送のためのエンドツーエンドのRVOSフレームワークであるYOFOを提案しました。その主な貢献と革新は次のとおりです。

  • 1 段階の推論のみで、参照テキスト情報を使用して、ビデオ ターゲットのセグメンテーション結果を直接取得できます。2 つの主流データセットである Ref-DAVIS2017 と Ref-Youtube-VOS で得られた結果は、現在のすべての 2 段階の方法を超えています。
  • 時間情報を強化し、ターゲットに重点を置いた特徴学習を実現するために、メタ転送モジュールが提案されています。
  • 言語と画像の有用な特徴を完全に統合できる、マルチスケールのクロスモーダル特徴マイニング モジュールが提案されています。

実装戦略

YOFO フレームワークの主なプロセスは次のとおりです。入力画像とテキストは、まずそれぞれ画像エンコーダーと言語エンコーダーを介して抽出され、次にマルチスケール クロスモーダル特徴マイニング モジュールで融合されます。融合されたバイモーダル特徴は、言語特徴の冗長情報を排除するためのメモリバンクを含むメタ転送モジュールで簡素化されます。同時に、タイミング情報は保存され、時間的相関が強化されます。最後に、デコーダーを通じてセグメンテーション結果が得られます。

図 1: YOFO フレームワークの主なプロセス。

マルチスケール クロスモーダル特徴マイニング モジュール: このモジュールは、異なるスケールの 2 つのモーダル特徴を徐々に融合することで、画像特徴によって伝えられるスケール情報と言語特徴の間の一貫性を維持できます。さらに重要なことは、融合プロセス中に言語情報がマルチスケール画像情報によって薄められたり、埋もれたりしないことを保証することです。

図 2: マルチスケール クロスモーダル特徴マイニング モジュール。

メタ転送モジュール: 学習学習戦略が採用されており、プロセスは次のマッピング関数として簡単に記述できます。伝達関数は畳み込みであり、その畳み込みカーネル パラメータは次のとおりです。

最適化プロセスは、次の目的関数として表現できます。

このうち、M は履歴情報を保存できるメモリ バンクを表し、W は特徴内の異なる位置に異なる注意を向けることができる異なる位置の重みを表し、Y はメモリ バンクに保存されている各ビデオ フレームのバイモーダル特徴を表します。この最適化プロセスにより、メタ転送関数はバイモーダル特徴を可能な限り再構築できるようになり、同時にフレームワーク全体をエンドツーエンドでトレーニングすることも可能になります。

トレーニングとテスト: トレーニングで使用される損失関数は lovasz 損失です。トレーニング セットは、2 つのビデオ データセット Ref-DAVIS2017 と Ref-Youtube-VOS です。静的データセット Ref-COCO は、ランダム アフィン変換を実行してビデオ データを補助トレーニングとしてシミュレートするために使用されます。メタ転送プロセスはトレーニングと予測の両方で実行され、ネットワーク全体は 1080ti で 10FPS で実行されます。

実験結果

この研究で使用された方法は、2 つの主流の RVOS データセット (Ref-DAVIS2017 と Ref-Youtube-VOS) で優れた結果を達成しました。定量的指標といくつかの視覚化効果図は次のとおりです。

図 3: 2 つの主流データセットにおける定量的指標。

図 4: VOS データセットの視覚化結果。

図 5: YOFO のその他の視覚化効果。

この研究では、一連のアブレーション実験を使用して、特徴マイニング モジュール (FM) とメタ転送モジュール (MT) の有効性も示しています。

図 6: 特徴マイニング モジュール (FM) とメタ転送モジュール (MT) の有効性。

さらに、この研究では、MT モジュールの有無によるデコーダー出力の特徴を視覚化しており、MT モジュールが言語で記述されたコンテンツを正しくキャプチャし、干渉ノイズを除去できることが明確にわかります。

図 7: MT モジュール使用前後のデコーダー出力機能の比較。研究チームについて

この論文は、Meitu Imaging Research Institute (MT Lab) の研究者と大連理工大学の Lu Huchuan 氏のチームによって共同で提案されました。 Meitu Imaging Research Institute (MT Lab) は、Meitu Inc. のチームであり、コンピューター ビジョン、機械学習、拡張現実、クラウド コンピューティングの分野でアルゴリズムの研究、エンジニアリング開発、製品実装に取り​​組んでいます。Meitu の既存および将来の製品にコア アルゴリズムのサポートを提供し、最先端技術を通じて Meitu 製品の開発を促進しています。「Meitu Technology Center」として知られる MT Lab は、CVPR、ICCV、ECCV などのトップクラスの国際コンピューター ビジョン カンファレンスに参加し、10 回以上の優勝と準優勝を獲得しています。

<<:  ジェフ・ディーン氏は自身の研究に対する批判に答える。「我々は新しいSOTAを取得しようとしているわけではなく、コスト計算は間違っている」

>>:  人間の知能と人工知能:どちらが優れているのでしょうか?

推薦する

人工知能は人間を監視しているのでしょうか?現在のAIと未来のAIのギャップ

アルゴリズムで構成されたAI多くの人は、一部の新しいハイテク概念は手の届かないものだと考えています。...

合意アルゴリズムRaftの簡単な紹介

[[417323]]この記事は、張張が執筆したWeChatパブリックアカウント「建築改善への道」から...

コードを超高速で変更! GPT-3に編集機能とテキスト挿入機能が追加され、AIがあなたに代わって詩を書くことができる

いつもトラブルを起こしているAI分野の花形研究機関OpenAIが最近また別のことをしました。GPT-...

...

...

人工知能とプライバシーの議論: AIの透明性の長所と短所を理解する

AI がますます多くの業界で採用されるようになるにつれ、AI のユーザーは、実用性を効果的に維持しな...

AI軍はすでに門を叩いているが、失業はどのくらい先にあるのだろうか?

流行の間、人工知能は再び人気を博しました。人工知能によって合成されたニュースレポートは、私たちに毎日...

マイクロソフト、AIツール「コパイロット」があなたの仕事を奪うことはないと改めて主張

Responsible AI チームを発表した際、Microsoft の幹部は、Copilot は仕...

...

...

4つのニューラルネットワークシーケンスデコードモデルとサンプルコードの説明

[[189448]]以下は、ニューラル ネットワーク モデルにおける 4 つのシーケンス デコード ...

Stability AIのCEOが大胆な発言:5年後には人間のプログラマーは存在しなくなる

最近、Stability AIの創設者兼CEOであるEmad Mostaque氏が再び衝撃的な発言を...

...

Googleが新しい検索方法を正式に発表:円を描く

ChatGPTが登場して以来、長い間息をひそめていたGoogleも、モバイル検索に力を入れ始めていま...