注意メカニズムは、最初はコンピューター ビジョンで使用され、その後 NLP の分野で開発されました。このメカニズムは、重要な情報に限定された注意を集中させることで、リソースを節約し、最も効果的な情報を迅速に取得します。 2014年にGoogle DeepMindが「Recurrent Models of Visual Attention」を発表し、注目のメカニズムが普及しました。2015年には、Bahdanauらが論文「Neural Machine Translation by Jointly Learning to Align and Translate」で注目メカニズムを初めてNLP分野に適用しました。2017年には、Google機械翻訳チームが「Attention is All You Need」を発表し、RNNやCNNなどのネットワーク構造を完全に放棄し、注目メカニズムのみを使用して機械翻訳タスクを実行し、非常に優れた結果を達成しました。そのため、注目メカニズムは研究のホットスポットとなっています。 数年にわたる開発を経て、この分野では注意メカニズムの研究に関する多くの論文が発表され、これらの研究は CV と NLP の分野で優れた成果を上げています。最近、GitHub 上で、ある研究者が、注目メカニズムに関する 17 件の論文の PyTorch コード実装と使用法を紹介しました。 プロジェクトアドレス: https://github.com/xmu-xiaoma666/External-Attention-pytorch プロジェクト紹介プロジェクトの著者らは、注意メカニズムをAttention シリーズ、MLP シリーズ、ReP (Re-Parameter) シリーズの 3 つのシリーズに分類しました。 Attentionシリーズには有名な「Attention is All You Need」を含む11本の論文が含まれ、最近人気のMLPシリーズにはGoogleのMLP-Mixer、gMLP、FacebookのResMLP、TsinghuaのRepMLPが含まれます。さらに、ReP(Re-Parameter)シリーズにはTsinghuaなどが提案したRepVGGやACNetが含まれます。 Attention シリーズの11 のAttention 論文の Pytorch 実装は次のとおりです。
MLP (多層パーセプトロン) シリーズには、次の Pytorch 実装に関する4 つの論文が含まれています。
ReP (Re-Parameter) シリーズには、Pytorch 実装に関する2 つの論文が含まれています。論文は次のとおりです。
要約すると、このプロジェクトでは、Pytorch を使用して 17 個の注意メカニズム論文を実装します。各論文には、タイトル(論文への直接リンク付き)、ネットワーク アーキテクチャ、コードが含まれています。次に例を示します。 論文:「自己注意を超えて: 視覚タスクのための 2 つの線形レイヤーを使用した外部注意」。 ネットワークフレームワーク: コード:
|
<<: Salesforce が AI 人材を見つけ、スキルを向上させる方法
>>: 国防総省は、今後数日間の出来事を予測するために人工知能を活用している。
放射線学誌に掲載された新しい研究によると、ディープラーニングと呼ばれる高度な人工知能は、一般的に使用...
皮膚は人体の中で最も大きな器官であるため、写真を撮るときには必ず皮膚の再生というプロセスを経る必要が...
人工知能とビッグデータの時代の到来により、心理学の研究に新たな扉が開かれました。人工知能は心理学実験...
IT自動化と人工知能技術の進歩と発展により、IT担当者の働き方は大きく変化しました。今年に入って新...
多くの企業は、短期的には利益が見込めないため、AIパイロットプロジェクトを推進できず、AIプロジェク...
[[378304]]上位 10 の古典的なソート アルゴリズム - シェル ソート、マージ ソート、...
Hackbright でメンターをしているときに、技術的な背景が限られている学生に MapReduc...
生成モデルは画像生成の分野で大きな成功を収めてきましたが、この技術を 3D 分野に拡張するには常に多...
[[385182]]中国人民政治協商会議第13期全国委員会第4回会議が2021年3月4日に北京で開催...
AIoT: AIとモノのインターネットが出会うときモノのインターネット (IoT) は私たちの日常生...