この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 Transformer について話すとき、いくつかの NLP モデルを思い浮かべるかもしれません。 しかし現在、Transformer は実際に CNN の仕事をこなすことができ、しかもかなりうまく機能しています。 たとえば、Microsoft Research Asia が提案した新製品である Swin Transformer は、COCO データセットのセグメンテーションと検出タスクにおいてクロスドメインの成功を収め、一挙に SOTA に到達しました。 そこで、質問です。 NLP に興味のある友人はおそらくこう尋ねるでしょう。CV タスクに Transformer を使用するというアイデアは以前から存在しており、CNN のステータスに揺るぎない影響を与えていません。Swin Transformer の違いは何ですか? これには、Transformer の CV アプリケーションにおける 2 つの主な問題が関係します。
Swin Transformer は、NLP と CV の違いによって生じる問題を解決することを目的としています。 移動ウィンドウ計算による階層型トランスフォーマーSwin Transformer の秘密は、次の 2 つの重要な点にあります。
2 番目のトリックは、移動ウィンドウに基づく自己注意です。 上の図に示すように、レイヤー l では、従来のウィンドウ分割方式が採用され、各ウィンドウ内で自己注意が計算されます。 次のレイヤー l+1 では、ウィンドウ パーティションが移動され、新しいウィンドウが生成されます。新しいウィンドウでの自己注意計算は、レイヤー l のウィンドウの境界を越えて、新しいコンテキスト情報を提供します。 具体的には、Swin Transformer の全体的なアーキテクチャは次のとおりです。
実験結果研究者らは、Swin Transformer に、それぞれ ImageNet-1K、COCO、ADE20K で画像分類、オブジェクト検出、セマンティックセグメンテーションのタスクを実行させました。 このうち、ImageNet-22Kデータセットは事前トレーニングに使用され、ImageNet-1Kデータセットは微調整に使用されます。 結果は、Swin Transformer が CNN を上回り、COCO セグメンテーションおよび検出タスク、および ADE20K セマンティック セグメンテーション タスクで SOTA に到達したことを示しています。 ImageNet-1K分類タスクでは、EfficientNetを上回ることはできなかったものの、その効果は同等であり、速度は速かった。 紙面ノートはこれで終わりです。詳細を知りたい方は記事末尾のポータルをクリックしてください。 読んだ後の感想もぜひシェアしてくださいね〜 ポータル論文の宛先: オープンソースアドレス: |
<<: ボストン・ダイナミクスの最新倉庫ロボットは1時間あたり800個のレンガを移動できる
>>: ディープラーニングを理解するには、より低い次元からアプローチするべきでしょうか、それともより高い次元で考えるべきでしょうか?
過去 10 年間で、機械学習 (特にディープラーニング) の分野では多数のアルゴリズムとアプリケーシ...
1. ニューラルネットワークに基づく機械翻訳選択理由: 翻訳は「自然言語処理」の中でも最も重要な分...
9月10日のニュース、2023年は人工知能の年です。チャットボットChatGPTから、グラミー賞に参...
新たな流行が猛烈に迫っており、特に河北省の流行は絶えず捜索されており、人々をパニックに陥れています。...
IBMは、顔認識技術の影響に対する人々の懸念が高まる中、今後は顔認識関連の技術や機能を開発しないこ...
[[387235]]テスト セットのヒル クライミングは、トレーニング セットに影響を与えたり、予測...
[[188225]] arXiv.org は、物理学、数学、コンピューターサイエンス、生物学の論文の...
[[334740]] 01 完全に接続されたネットワーク完全に接続された高密度の線形ネットワークは、...
インターネットとオンラインショッピングの普及は、一部のオフライン業界に前例のない影響をもたらしました...
最近では、「ビッグデータ」や「人工知能」ほどよく使われる流行語はほとんどありません。多くのデータ分析...
7月26日のニュースによると、将来、人工知能はマイクロソフトやアルファベットなどのテクノロジー大手に...