言語モデルは本来の役割を果たしていないため、DETRよりも優れたパフォーマンスでオブジェクト検出に使用されています。

言語モデルは本来の役割を果たしていないため、DETRよりも優れたパフォーマンスでオブジェクト検出に使用されています。

[[426823]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

長い間、CNN はターゲット検出タスクを解決するための古典的な方法でした。

Transformer を使用した DETR が導入された場合でも、最終的な検出結果を予測するために CNN が使用されます。

しかし現在、ジェフリー・ヒントン氏と Google Brain チームは、言語モデリング手法を使用してターゲット検出を完全に完了できる新しいフレームワークPix2Seq を提案しています。

チームは、画像ピクセルから対象オブジェクトの「説明」を取得し、それを言語モデリングタスクの入力として使用しました。次に、モデルにこの「言語」を学習させて習得させ、有用なターゲット表現を取得します。

最終結果は基本的にFaster R-CNNおよびDETRと同等です。小さなオブジェクトの検出では DETR よりも優れており、大きなオブジェクトの検出では Faster R-CNN よりも優れたパフォーマンスを発揮します。

次に、このモデルのアーキテクチャを詳しく見てみましょう。

オブジェクトの説明からシーケンスを構築する

Pix2Seq の処理フローは主に 4 つの部分に分かれています。

  • 画像強調
  • シーケンスの構築と強化
  • エンコーダ/デコーダアーキテクチャ
  • 目的/損失関数

まず、Pix2Seq は画像拡張を使用して、固定されたトレーニング例のセットを充実させます。

次のステップは、オブジェクトの説明からシーケンスを構築することです。

画像には複数のオブジェクト ターゲットが含まれることが多く、各オブジェクト ターゲットは境界ボックスとカテゴリ ラベルのセットとして考えることができます。

これらのオブジェクト ターゲットの境界ボックスとカテゴリ ラベルは個別のシーケンスとして表現され、複数のオブジェクトはランダム ソート戦略を使用してソートされ、最終的に特定の画像の単一のシーケンスが形成されます。

それは、冒頭で述べた、対象物を「記述」するための特別な言語です。

その中で、クラスラベルは離散トークンとして自然に表現できます。

境界ボックスは、左上隅と右下隅の 2 つのコーナー ポイントの X、Y 座標とカテゴリ インデックス c を離散化し、最終的に 5 つの離散トークン シーケンスを取得します。

研究チームは、すべてのターゲットに対して共通の語彙を使用します。テーブル サイズ = ビンの数 + カテゴリの数です。

この量子化メカニズムにより、600×600 の画像では 600 ビンのみで量子化誤差ゼロを達成できます。これは、32K 語彙の言語モデルよりもはるかに小さいものです。

次に、生成されたシーケンスを言語と見なし、言語モデルにおける一般的なフレームワークと目的関数を紹介します。

ここではエンコーダー/デコーダー アーキテクチャが使用され、エンコーダーはピクセルを感知してそれらを隠された表現の一般的な画像にエンコードするために使用され、Transformer デコーダーは生成に使用されます。

言語モデルと同様に、Pix2Seq は画像と以前のトークンを予測し、尤度損失を最大化するために使用されます。

推論フェーズでは、モデルからトークンのサンプリングが実行されます。

すべてのオブジェクトを予測する前にモデルが終了するのを防ぎ、精度 (AP) と再現率 (AR) のバランスをとるために、チームはシーケンス強化技術を導入しました。

この方法では、入力シーケンスを拡張し、ターゲット シーケンスを変更してノイズ トークンを識別できるようにすることで、モデルの堅牢性を効果的に向上させることができます。

小型ターゲット検出においてDETRを上回る

チームは評価のために、118,000 枚のトレーニング画像と 5,000 枚の検証画像を含む MS-COCO 2017 検出データセットを選択しました。

DETR や Faster R-CNN などのよく知られているターゲット検出フレームワークと比較すると、次のことがわかります。

Pix2Seq は、小型/中型オブジェクトの検出では Faster R-CNN と同等のパフォーマンスを発揮しますが、大型オブジェクトの検出では Faster R-CNN よりも優れています。

DETR と比較すると、Pix2Seq は大規模/中規模ターゲットの検出では同等かわずかに劣りますが、小規模ターゲットの検出では優れています。

中国人

この論文は、チューリング賞受賞者のジェフリー・ヒントン氏が率いる Google Brain チームによるものです。

第一著者のティン・チェンは中国人です。北京郵電大学を卒業し、2019年にカリフォルニア大学ロサンゼルス校(UCLA)でコンピューターサイエンスの博士号を取得しました。

彼は Google Brain チームで 2 年間働いており、現在の主な研究分野は自己教師あり表現学習、効果的な離散構造ディープ ニューラル ネットワーク、生成モデリングです。

[[426825]]

紙:
https://arxiv.org/abs/2109.10852

<<:  国立国防技術大学は、モバイル環境下で高精度のオンラインRGB-D再構成を実現するROSEFusionを提案

>>:  AIと人間のバンドが初めてコラボしてアルバムをリリース

ブログ    
ブログ    
ブログ    

推薦する

GPT-3.5 を選択すべきでしょうか、それとも Llama 2 などのオープンソース モデルを微調整すべきでしょうか?総合的に比較した結果、答えは

GPT-3.5 の微調整には非常にコストがかかることはよく知られています。この論文では、手動で微調整...

分散コンセンサスアルゴリズム EPaxos について 1 つの記事で学ぶ

分散システムにおける中心的な問題はデータの一貫性です。 Paxos アルゴリズムは分散一貫性における...

IT リーダーが避けるべき 6 つの生成 AI の危険性

多くの場合、さまざまな組織がさまざまな方法で生成 AI テクノロジーを適用しますが、それがもたらす悪...

ファーウェイ、データインフラを再定義するAIネイティブデータベースを世界規模で展開

[中国、北京、2019年5月15日] ファーウェイは、2018年にAI戦略とフルスタックの全シナリオ...

自動運転車は交通事故の3分の1しか解決できない、と研究が示す

自動運転車の主な目標、少なくともこの技術の支持者が推進している目標は、運転手や乗客の利便性を高めるこ...

...

...

...

ボストン・ダイナミクスの最新倉庫ロボットは1時間あたり800個のレンガを移動できる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

チューリング賞受賞者のヤン・ルカン氏:今後数十年間の AI 研究の最大の課題は「予測世界モデル」

ディープラーニングの大規模な応用の後、人々はさらなる技術的進歩をもたらすことができる真の汎用人工知能...

BAIRの最新のRLアルゴリズムはGoogle Dreamerを上回り、パフォーマンスが2.8倍向上しました。

ピクセルベースの RL アルゴリズムが復活しました。BAIR は対照学習と RL を組み合わせたアル...

自己教師学習の効率限界を突破! Ma Yi と LeCun が共同で EMP-SSL をリリース: 特別なトリックは不要、30 エポックで SOTA を達成可能

過去数年間、教師なし学習と自己教師あり学習 (SSL) は大きな進歩を遂げてきました。SSL を通じ...

ディープラーニング以外に機械翻訳には何が必要ですか?

[[200675]]視聴者が足りないなら、噂話で十分だまずは噂話から始めましょう。この記事を書き始...