この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 Transformer はマルチモーダルタスクの処理に適していると言われています。 現在、ビデオオブジェクトセグメンテーションの分野では、これを使用してテキストとビデオフレームを同時に処理し、よりシンプルな構造とより高速な処理速度(1秒あたり76フレーム)を備えたビデオインスタンスセグメンテーションフレームワークを提案した人もいます。 このフレームワークでは、一連のテキスト説明だけで、ビデオ内の動的なターゲットを簡単に「切り取る」ことができます。 エンドツーエンドでトレーニングでき、ベンチマークの複数の指標で既存のモデルよりも優れたパフォーマンスを発揮します。 現在、関連論文はCVPR 2022に採択されており、研究者はイスラエル工科大学のものです。 本旨テキスト記述からのビデオ オブジェクト セグメンテーション (RVOS) のマルチモーダル タスクでは、テキスト推論、ビデオ理解、インスタンス セグメンテーション、および追跡技術の組み合わせが必要です。 既存の方法では、通常、問題を解決するために複雑なパイプラインに依存しており、エンドツーエンドでシンプルで使いやすいモデルを形成することは困難です。 CV と NLP の分野が進歩するにつれて、研究者は、ビデオとテキストを単一のマルチモーダル Transformer モデルで同時に効果的に処理できることに気付きました。 この目的のために彼らはMTTRと呼ばれるものを提案した。 Multimodal Tracking Transformer の新しいアーキテクチャは、RVOS タスクをシーケンス予測問題としてモデル化します。 まず、入力テキスト フレームとビデオ フレームが特徴抽出のために特徴エンコーダーに渡され、次に 2 つが連結されてマルチモーダル シーケンス (フレームごとに 1 つ) になります。 次に、2 つの特徴関係がマルチモーダル Transformer を通じてエンコードされ、インスタンス レベルの特徴が予測シーケンスのセットにデコードされます。 次に、対応するマスクと参照予測シーケンスが生成されます。 最後に、予測されたシーケンスは、通常、トレーニング中の監督や推論中の最終予測の生成のために、教師あり学習のサンプル セット内のラベルを参照する、真実のシーケンスと照合されます。 具体的には、Transformer によって出力されるインスタンス シーケンスごとに、システムは対応するマスク シーケンスを生成します。 これを実現するために、著者らは FPN (Feature Pyramid Network) に類似した空間デコーダーと動的に生成された条件付き畳み込みカーネルを使用しました。 マスクとテキストの関連付けに基づく新しいテキスト参照スコア関数により、テキストで記述されたオブジェクトと最も強い関連性を持つクエリ シーケンスを特定し、そのセグメント化されたシーケンスをモデルの予測として返すことができます。 精度は既存のモデルよりも優れています著者らは、JHMDB-Sentences、A2D-Sentences、Refer-YouTube-VOS という 3 つの関連データセットで MTTR のパフォーマンスをテストしました。 最初の 2 つのデータセットの測定指標には、IoU (積和、1 は予測ボックスが実際のボックスと完全に重なることを意味します)、平均 IoU、および precision@K (すべての結果に対する正しく予測された関連結果の割合) が含まれます。 結果は次のとおりです。 MTTR はすべての指標において既存のすべての方法よりも優れており、SOTA モデルと比較して最初のデータセットの mAP 値 (平均精度) も 4.3 向上していることがわかります。 MTTR の最上位バージョンは、平均および全体の IoU 指標で 5.7 の mAP ゲインを達成し、単一の RTX 3090 GPU で 1 秒あたり 76 フレームの画像を処理できます。 JHMDB での MTTR の結果は、MTTR にも優れた一般化能力があることを示しています。 より困難なRefer-YouTube-VOSデータセットの主な評価指標は、領域類似度 (J) と輪郭精度 (F) の平均です。 MTTR はこれらすべての指標において「わずかに勝利」しています。 いくつかの視覚化結果から、ターゲット オブジェクトが類似のインスタンスに囲まれていたり、遮蔽されていたり、完全にフレーム外にあったりする場合でも、MTTR はテキストで参照されるオブジェクトを正常に追跡およびセグメント化できることが示されています。 最後に、著者は、この成果を通じて、マルチモーダルタスクにおける Transformer の可能性をより多くの人々が認識してくれることを期待していると述べました。 最後に、著者は2つのトライアルチャンネルも開設しました。興味のある学生は記事の最後にあるリンクをクリックしてください〜 △ Colabトライアル効果 トライアルアドレス: https://colab.research.google.com/drive/12p0jpSx3pJNfZk-y_L44yeHZlhsKVra-?usp=sharing 論文の宛先: コードはオープンソースです: |
<<: USTC 統合入力フィルタリング フレームワーク: すべてのデータ モダリティをサポートするフィルタリング可能性の最初の理論的分析
>>: AI と IoT によって貨物輸送はどのようにスマート化されるのでしょうか?
Transformer は最近、さまざまな視覚タスクで優れたパフォーマンスを発揮しており、受容野によ...
GTA5 は古典的な 3D アドベンチャー ゲームであり、そのスタイルは次のとおりです。写真は現実に...
2019年12月22日、中国職業技術教育学会科学技術成果転換作業委員会が中国科学院コンピューティング...
2021年CCTV「3.15」ガラで、多くの店舗がカメラを使って顔情報を取得している事例が暴露され、...
今後 5 年間で、AI は企業とそのビジネス モデルに大きな影響を与えるでしょう。調査会社プライスウ...
[[442468]]この記事では、PyTorch を使用して深層モデルをトレーニングするための最も労...
テルストラは、機器の故障を早期に予測し、音声やテキストによる詐欺に対抗する方法を見つけるために、ネッ...
研究者は、新たに開発された人工知能技術の助けを借りて、大量の画像を分析し、分類およびマイニング可能な...
Google はブログ投稿で、同社の AI がさまざまな要素を分析して、こうした更新を行うべきかどう...
プラスチック廃棄物が海洋生物にとって常に恐ろしい脅威となっていることは誰もが知っているはずです。しか...