クロスモーダルメタトランスファーに基づく、Meituと大連理工大学の参照ビデオオブジェクトセグメンテーション方法は、1つのステージのみを必要とする。

クロスモーダルメタトランスファーに基づく、Meituと大連理工大学の参照ビデオオブジェクトセグメンテーション方法は、1つのステージのみを必要とする。

導入

参照ビデオ オブジェクト セグメンテーション (RVOS) は、参照テキストに基づいてビデオ シーケンスで参照されるオブジェクトをセグメント化することを目的とした新しいタスクです。半教師ありビデオオブジェクトセグメンテーションと比較すると、RVOS はピクセルレベルの参照マスクではなく抽象的な言語記述のみに依存しているため、人間とコンピューターの相互作用にとってより便利なオプションを提供し、幅広い注目を集めています。

論文リンク: https://www.aaai.org/AAAI22Papers/AAAI-1100.LiD.pdf

この研究の主な目的は、既存の RVOS ミッションが直面している 2 つの大きな課題に対処することです。

  • 2 つのモダリティ間のスケールの一貫性を維持し、テキストによって提供される有用な機能参照を画像機能に完全に統合できるように、モダリティ間でテキスト情報と画像情報を統合する方法。
  • 既存の方法の 2 段階戦略 (つまり、最初に画像レベルでフレームごとに大まかな結果を取得し、その結果を参照として使用し、強化された時間情報の構造的改良を通じて最終的な予測を取得する) を放棄し、RVOS タスク全体を 1 段階のフレームワークに統合する方法。

この点に関して、本研究では、クロスモーダルメタ転送のためのエンドツーエンドのRVOSフレームワークであるYOFOを提案しました。その主な貢献と革新は次のとおりです。

  • 1 段階の推論のみで、参照テキスト情報を使用して、ビデオ ターゲットのセグメンテーション結果を直接取得できます。2 つの主流データセットである Ref-DAVIS2017 と Ref-Youtube-VOS で得られた結果は、現在のすべての 2 段階の方法を超えています。
  • 時間情報を強化し、ターゲットに重点を置いた特徴学習を実現するために、メタ転送モジュールが提案されています。
  • 言語と画像の有用な特徴を完全に統合できる、マルチスケールのクロスモーダル特徴マイニング モジュールが提案されています。

実装戦略

YOFO フレームワークの主なプロセスは次のとおりです。入力画像とテキストは、まずそれぞれ画像エンコーダーと言語エンコーダーを介して抽出され、次にマルチスケール クロスモーダル特徴マイニング モジュールで融合されます。融合されたバイモーダル特徴は、言語特徴の冗長情報を排除するためのメモリバンクを含むメタ転送モジュールで簡素化されます。同時に、タイミング情報は保存され、時間的相関が強化されます。最後に、デコーダーを通じてセグメンテーション結果が得られます。

図 1: YOFO フレームワークの主なプロセス。

マルチスケール クロスモーダル特徴マイニング モジュール: このモジュールは、異なるスケールの 2 つのモーダル特徴を徐々に融合することで、画像特徴によって伝えられるスケール情報と言語特徴の間の一貫性を維持できます。さらに重要なことは、融合プロセス中に言語情報がマルチスケール画像情報によって薄められたり、埋もれたりしないことを保証することです。

図 2: マルチスケール クロスモーダル特徴マイニング モジュール。

メタ転送モジュール: 学習学習戦略が採用されており、プロセスは次のマッピング関数として簡単に記述できます。伝達関数は畳み込みであり、その畳み込みカーネル パラメータは次のとおりです。

最適化プロセスは、次の目的関数として表現できます。

このうち、M は履歴情報を保存できるメモリ バンクを表し、W は特徴内の異なる位置に異なる注意を向けることができる異なる位置の重みを表し、Y はメモリ バンクに保存されている各ビデオ フレームのバイモーダル特徴を表します。この最適化プロセスにより、メタ転送関数はバイモーダル特徴を可能な限り再構築できるようになり、同時にフレームワーク全体をエンドツーエンドでトレーニングすることも可能になります。

トレーニングとテスト: トレーニングで使用される損失関数は lovasz 損失です。トレーニング セットは、2 つのビデオ データセット Ref-DAVIS2017 と Ref-Youtube-VOS です。静的データセット Ref-COCO は、ランダム アフィン変換を実行してビデオ データを補助トレーニングとしてシミュレートするために使用されます。メタ転送プロセスはトレーニングと予測の両方で実行され、ネットワーク全体は 1080ti で 10FPS で実行されます。

実験結果

この研究で使用された方法は、2 つの主流の RVOS データセット (Ref-DAVIS2017 と Ref-Youtube-VOS) で優れた結果を達成しました。定量的指標といくつかの視覚化効果図は次のとおりです。

図 3: 2 つの主流データセットにおける定量的指標。

図 4: VOS データセットの視覚化結果。

図 5: YOFO のその他の視覚化効果。

この研究では、一連のアブレーション実験を使用して、特徴マイニング モジュール (FM) とメタ転送モジュール (MT) の有効性も示しています。

図 6: 特徴マイニング モジュール (FM) とメタ転送モジュール (MT) の有効性。

さらに、この研究では、MT モジュールの有無によるデコーダー出力の特徴を視覚化しており、MT モジュールが言語で記述されたコンテンツを正しくキャプチャし、干渉ノイズを除去できることが明確にわかります。

図 7: MT モジュール使用前後のデコーダー出力機能の比較。研究チームについて

この論文は、Meitu Imaging Research Institute (MT Lab) の研究者と大連理工大学の Lu Huchuan 氏のチームによって共同で提案されました。 Meitu Imaging Research Institute (MT Lab) は、Meitu Inc. のチームであり、コンピューター ビジョン、機械学習、拡張現実、クラウド コンピューティングの分野でアルゴリズムの研究、エンジニアリング開発、製品実装に取り​​組んでいます。Meitu の既存および将来の製品にコア アルゴリズムのサポートを提供し、最先端技術を通じて Meitu 製品の開発を促進しています。「Meitu Technology Center」として知られる MT Lab は、CVPR、ICCV、ECCV などのトップクラスの国際コンピューター ビジョン カンファレンスに参加し、10 回以上の優勝と準優勝を獲得しています。

<<:  ジェフ・ディーン氏は自身の研究に対する批判に答える。「我々は新しいSOTAを取得しようとしているわけではなく、コスト計算は間違っている」

>>:  人間の知能と人工知能:どちらが優れているのでしょうか?

ブログ    

推薦する

データから洞察まで、IBMは企業の人工知能への取り組みを加速します

[51CTO.com からのオリジナル記事] インテリジェンス + の時代では、データは企業の中核資...

...

科学者は、掴んだまま物体を回転させることができるユニークなロボットハンドを開発

今日の多くのロボットハンドは物体をつかむことができるが、つかんだ物体を放さずにその向きを変えることは...

MySQLにおける結合アルゴリズムの実装原理の分析

MySQL には、有名なネスト ループ結合という結合アルゴリズムが 1 つだけあります。他の多くのデ...

中国にはどのような人工知能の人材が必要でしょうか?

[[233697]] 「『AI』が何の略か、誰もが知っているとは思いません。アルゴリズムはあっても...

AIがコンテンツマーケティングを進化させる方法

デジタル メディアはほぼすべての人の日常生活に浸透し、私たちのあらゆる活動に永続的な影響を及ぼしてい...

...

...

...

5Gは医療業界に革命を起こす

[[377987]]画像ソース: https://pixabay.com/images/id-149...

AI が「長すぎて読めない」問題の解決を支援: 深層要約モデルの構築方法

過去数十年にわたり、私たちは情報に関する一連の根本的な変化と課題を経験してきました。今日、情報へのア...

...

4kスター、AIが強化学習でポケモンをプレイ、2万ゲームを経て勝利に成功

「ポケモン」の話をすると眠くならなくなりましたか? 「Pokemon」は「ポケモン」の非公式翻訳です...