注意メカニズムは、最初はコンピューター ビジョンで使用され、その後 NLP の分野で開発されました。このメカニズムは、重要な情報に限定された注意を集中させることで、リソースを節約し、最も効果的な情報を迅速に取得します。 2014年にGoogle DeepMindが「Recurrent Models of Visual Attention」を発表し、注目のメカニズムが普及しました。2015年には、Bahdanauらが論文「Neural Machine Translation by Jointly Learning to Align and Translate」で注目メカニズムを初めてNLP分野に適用しました。2017年には、Google機械翻訳チームが「Attention is All You Need」を発表し、RNNやCNNなどのネットワーク構造を完全に放棄し、注目メカニズムのみを使用して機械翻訳タスクを実行し、非常に優れた結果を達成しました。そのため、注目メカニズムは研究のホットスポットとなっています。 数年にわたる開発を経て、この分野では注意メカニズムの研究に関する多くの論文が発表され、これらの研究は CV と NLP の分野で優れた成果を上げています。最近、GitHub 上で、ある研究者が、注目メカニズムに関する 17 件の論文の PyTorch コード実装と使用法を紹介しました。 プロジェクトアドレス: https://github.com/xmu-xiaoma666/External-Attention-pytorch プロジェクト紹介プロジェクトの著者らは、注意メカニズムをAttention シリーズ、MLP シリーズ、ReP (Re-Parameter) シリーズの 3 つのシリーズに分類しました。 Attentionシリーズには有名な「Attention is All You Need」を含む11本の論文が含まれ、最近人気のMLPシリーズにはGoogleのMLP-Mixer、gMLP、FacebookのResMLP、TsinghuaのRepMLPが含まれます。さらに、ReP(Re-Parameter)シリーズにはTsinghuaなどが提案したRepVGGやACNetが含まれます。 Attention シリーズの11 のAttention 論文の Pytorch 実装は次のとおりです。
MLP (多層パーセプトロン) シリーズには、次の Pytorch 実装に関する4 つの論文が含まれています。
ReP (Re-Parameter) シリーズには、Pytorch 実装に関する2 つの論文が含まれています。論文は次のとおりです。
要約すると、このプロジェクトでは、Pytorch を使用して 17 個の注意メカニズム論文を実装します。各論文には、タイトル(論文への直接リンク付き)、ネットワーク アーキテクチャ、コードが含まれています。次に例を示します。 論文:「自己注意を超えて: 視覚タスクのための 2 つの線形レイヤーを使用した外部注意」。 ネットワークフレームワーク: コード:
|
<<: Salesforce が AI 人材を見つけ、スキルを向上させる方法
>>: 国防総省は、今後数日間の出来事を予測するために人工知能を活用している。
[[386200]] [51CTO.com クイック翻訳] 事実によれば、ロボティックプロセスオー...
[[272599]]人工知能は、英語の正式名称を「Artificial general intel...
近年、人工知能の台頭の勢いに乗って生体認証技術が急速に発展し、顔認識に代表される一連のサブセクターが...
毎年開催されるコンシューマー・エレクトロニクス・ショー(CES)はテクノロジーの展示会として知られて...
[[325837]] Twitterは北京時間5月12日、スタンフォード大学のコンピューターサイエン...
人工知能は科学技術革命を牽引する重要な原動力として、国家戦略計画や産業界の注目の的となり、オープンソ...
翻訳者 | 崔昊校正 | 梁哲、孫淑娟1. はじめにこの記事では、Deep Graph Librar...
最近、ファーウェイの創業者任正非氏はインタビューで、自分が最も関心を持っている問題は基礎科学研究と教...
企業はビジネスニーズの変化に応じてスケールアップおよびスケールダウンできるコンピューティングおよびス...