Transformer を画像セマンティックセグメンテーションに使用し、最先端の畳み込み手法を上回るパフォーマンスを実現

Transformer を画像セマンティックセグメンテーションに使用し、最先端の畳み込み手法を上回るパフォーマンスを実現

[[400873]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

周知のとおり、画像セマンティックセグメンテーションを実行する場合、画像は一連のパッチにエンコードされますが、これらのパッチはぼやけていることが多く、正しくセグメント化するにはコンテキスト情報が必要になります。

したがって、コンテキスト モデリングは、画像セマンティック セグメンテーションのパフォーマンスにとって非常に重要です。

畳み込みネットワークに基づくこれまでの方法とは異なり、フランスの研究チームは異なるアプローチを採用しTransformerのみを使用するセマンティックセグメンテーション方法を提案しました。

最先端の畳み込み法">

この方法は「優れ」ており、画像の全体的なコンテキスト情報を非常にうまくキャプチャできます。

最先端の畳み込み法">

ご存知のとおり、素晴らしい成果を上げている FCN (完全畳み込みネットワーク) でさえ、「グローバル画像情報へのアクセスが制限される」という問題があります。 (畳み込み構造は現在、画像セマンティックセグメンテーションにおいて破ることのできない限界がある)

今回、この方法は、困難な ADE20K データセットで最も高度な畳み込み方法よりも優れたパフォーマンスを発揮しました。

[[400874]]最先端の畳み込み法">

Transformer はコンピューター ビジョンの分野でますます使用されるようになり、その結果はますます成功を収めていると言わざるを得ません。

では、今回非常に優れたパフォーマンスを示した Transformer のセマンティック セグメンテーションでは、何か別の「レシピ」が使用されたのでしょうか?

Vision Transformerの使用

そうです、最終的に Segmenter と名付けられたこのセマンティック セグメンテーション モデルは、主に、昨年 10 月に誕生したコンピューター ビジョン分野の「新参者」Transformer、 Vision Transformer (略称 ViT) に基づいています。

ViT はどれくらい良いですか?

ViT は純粋な Transformer アーキテクチャを使用しており、入力用に画像を複数のパッチに分割します。多くの画像分類タスクにおけるそのパフォーマンスは、最先端の畳み込みネットワークに劣りません。

欠点は、トレーニング データ セットが小さい場合、パフォーマンスがあまり良くないことです。

Segmenter は、純粋な Transformer エンコーダー/デコーダー アーキテクチャとして、モデルのすべてのレイヤーでグローバル画像コンテキストを活用します。

最新の ViT 研究結果に基づいて、画像はパッチに分割され、線形埋め込みシーケンスにマッピングされ、エンコーダーによってエンコードされます。次に、マスク トランスフォーマーは、エンコーダーとクラス埋め込みの出力をデコードし、アップサンプリング後に Argmax を適用して各ピクセルを 1 つずつ分類し、最終的なピクセル分割マップを出力します。

以下はモデル アーキテクチャの概略図です。

最先端の畳み込み法">

デコード段階では、画像パッチとクラス埋め込みを共同で処理する簡単な方法を採用しています。デコーダーのマスクトランスフォーマーは、クラス埋め込みをオブジェクト埋め込みに置き換えることで、パノプティックセグメンテーションを直接実行できます。

仕組み

あまり話しても意味がないので、実際の結果を見てみましょう。

まず、ADE20K データセットでさまざまな Transformer バリアントを比較し、さまざまなパラメーター (正規化、モデル サイズ、画像ブロック サイズ、トレーニング データセットのサイズ、モデルのパフォーマンス、さまざまなデコーダーなど) を研究し、Segmenter と畳み込みベースのセマンティック セグメンテーション メソッドを包括的に比較しました。

その中でも、難しい細粒度のラベルシーンを含むADE20Kデータセットは、最も難しいセマンティックセグメンテーションデータセットの1つです。

次の表は、さまざまな正規化スキームの結果を比較したものです。

彼らは、確率的深度スキームは単独でパフォーマンスを向上できるのに対し、ドロップアウトは、単独であっても確率的深度と組み合わせても、パフォーマンスが低下することを発見しました。

最先端の畳み込み法">

異なる画像ブロック サイズと異なるトランスフォーマーのパフォーマンスを比較した結果、次のことがわかりました。

パッチ サイズを大きくすると、画像の表現は粗くなりますが、生成されるシーケンスは小さくなり、処理が速くなります

パッチ サイズを縮小すると、パラメーターを導入しなくても強力な改善が実現します。ただし、より長いシーケンスに対して Attention を計算する必要があり、計算時間とメモリ使用量が増加します。

最先端の畳み込み法">

セグメンターは、大きなトランスフォーマー モデル小さな画像パッチを使用する場合に適しています。

最先端の畳み込み法">

(表の中央にはリニア デコーダを使用したさまざまなエンコーダが示され、表の下部にはマスク トランスフォーマーをデコーダとして使用したさまざまなエンコーダが示されています)

下の図は、Segmenter の明らかな利点も示しており、Seg/16 モデル (画像ブロック サイズは 16x16) がパフォーマンスと精度の点で最高のパフォーマンスを発揮します。

最先端の畳み込み法">

最後に、Segmenter と SOTA の比較を見てみましょう。

最も困難な ADE20K データセットでは、Segmenter の 2 つの指標がすべての SOTA モデルよりも高くなっています。

最先端の畳み込み法">

(途中部分は長すぎるため省略)

最先端の畳み込み法">

Cityscapes データセットでは、ほとんどの SOTA に匹敵し、最高のパフォーマンスを誇る Panoptic-Deeplab よりもわずか 0.8 低いだけです。

最先端の畳み込み法">

Pascal Context データセットでのパフォーマンスについても同様です。

最先端の畳み込み法">

残りのパラメータの比較については、興味のある方はオンデマンドで論文の詳細を確認してください。

論文の宛先:
出典:http://www.arxiv-vanity.com/papers/2105.05633/

<<:  橋梁点検におけるUAV技術の応用

>>:  Transformer はコンピューター ビジョンの分野でどこまで進歩したのでしょうか?

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

企業が人工知能を活用してサービスをパーソナライズする方法

パーソナライズされたサービスが大きなメリットをもたらすことは間違いありません。うまく行けば、投資収益...

AIとデータが未来のスマートシティを強化する5つの方法

私たちが住む世界はますます都市化が進んでいます。 2009 年の国連の調査によると、毎週 130 万...

英国の消費者団体が警告:AIチャットボットがオンライン詐欺をよりプロフェッショナル化

10月28日、英国の消費者団体Which?が現地時間金曜日に発表した最新の調査結果によると、犯罪者は...

AIの未来: データだけでは不十分

特定の問題を解決するための最適な技術としての人工知能 (AI) に対する熱意は否定できず、注目に値し...

人工知能はリアルタイム分析のためのより強力なツールとなる

AI と機械学習は価値の高いデータに依存しているため、IT 部門はネットワーク内で何が起こっているか...

企業がAI対応データベースを使用してAI導入を加速する方法

今日、企業や IT プロフェッショナルは、これまで以上にデータベースに高い期待を寄せています。データ...

...

...

顔認識技術の応用における認知的誤解

[[286435]]カメラはどこにでもあり、顔認識は生活のほぼあらゆる場面で使用されています。どのよ...

AIの次の目的地:リアルタイムサービス

リアルタイムサービスの波が徐々に私たちの日常生活に浸透するにつれ、コンピューティングインフラストラク...

ドローン時代の到来により、人工知能航空機が有人戦闘機に取って代わり、パイロットは失業することになるのでしょうか?

まず、ドローンはソレイマニの暗殺に使用され、その後、アルメニアとアゼルバイジャンの戦場でドローンが活...

医療における会話型 AI の 5 つの用途

パンデミックの影響で、医療業界は世界中で医師、看護師、その他の医療スタッフの深刻な不足に直面していま...

バックプロパゲーションを用いた多層ニューラルネットワークのトレーニングの原理

記事「バックプロパゲーションを使用した多層ニューラル ネットワークのトレーニングの原理」では、バック...

JS データ構造とアルゴリズム_ソートおよび検索アルゴリズム

序文これは「JavaScript のデータ構造とアルゴリズムを学ぶ」の最後のブログです。これは、面接...