注意メカニズムは、最初はコンピューター ビジョンで使用され、その後 NLP の分野で開発されました。このメカニズムは、重要な情報に限定された注意を集中させることで、リソースを節約し、最も効果的な情報を迅速に取得します。 2014年にGoogle DeepMindが「Recurrent Models of Visual Attention」を発表し、注目のメカニズムが普及しました。2015年には、Bahdanauらが論文「Neural Machine Translation by Jointly Learning to Align and Translate」で注目メカニズムを初めてNLP分野に適用しました。2017年には、Google機械翻訳チームが「Attention is All You Need」を発表し、RNNやCNNなどのネットワーク構造を完全に放棄し、注目メカニズムのみを使用して機械翻訳タスクを実行し、非常に優れた結果を達成しました。そのため、注目メカニズムは研究のホットスポットとなっています。 数年にわたる開発を経て、この分野では注意メカニズムの研究に関する多くの論文が発表され、これらの研究は CV と NLP の分野で優れた成果を上げています。最近、GitHub 上で、ある研究者が、注目メカニズムに関する 17 件の論文の PyTorch コード実装と使用法を紹介しました。 プロジェクトアドレス: https://github.com/xmu-xiaoma666/External-Attention-pytorch プロジェクト紹介プロジェクトの著者らは、注意メカニズムをAttention シリーズ、MLP シリーズ、ReP (Re-Parameter) シリーズの 3 つのシリーズに分類しました。 Attentionシリーズには有名な「Attention is All You Need」を含む11本の論文が含まれ、最近人気のMLPシリーズにはGoogleのMLP-Mixer、gMLP、FacebookのResMLP、TsinghuaのRepMLPが含まれます。さらに、ReP(Re-Parameter)シリーズにはTsinghuaなどが提案したRepVGGやACNetが含まれます。 Attention シリーズの11 のAttention 論文の Pytorch 実装は次のとおりです。
MLP (多層パーセプトロン) シリーズには、次の Pytorch 実装に関する4 つの論文が含まれています。
ReP (Re-Parameter) シリーズには、Pytorch 実装に関する2 つの論文が含まれています。論文は次のとおりです。
要約すると、このプロジェクトでは、Pytorch を使用して 17 個の注意メカニズム論文を実装します。各論文には、タイトル(論文への直接リンク付き)、ネットワーク アーキテクチャ、コードが含まれています。次に例を示します。 論文:「自己注意を超えて: 視覚タスクのための 2 つの線形レイヤーを使用した外部注意」。 ネットワークフレームワーク: コード:
|
<<: Salesforce が AI 人材を見つけ、スキルを向上させる方法
>>: 国防総省は、今後数日間の出来事を予測するために人工知能を活用している。
ディープラーニングは多くの初心者にとってわかりにくいかもしれません。急速に発展するにつれて、多くの新...
人工知能は未来をリードする戦略的技術として、世界の産業構造、経済活動、都市形態、そして人間のライフス...
統計学の入門コースを受講したことがあるなら、データ ポイントは理論を刺激したりテストしたりするために...
[[254687]]少し前に同時通訳者がiFlytekを「AI同時通訳詐欺」と非難し、ネット上で騒...
人工知能はデータ変換ツールに革命をもたらし、効率、精度、リアルタイム処理を向上させます。シームレスな...
現在、人々の生活や仕事のペースはますます加速し、インターネット電子商取引プラットフォームは急速に発展...
最近、皆さんは次のような H5 に悩まされていると思います。広告ポスター500枚の予算は2,000元...
近年、人工知能は驚異的なスピードで技術が発展していることから、話題になっています。AlphaGoは囲...
生成型人工知能技術の急速な発展に伴い、大規模なモデルが人間の価値観(意図)と一致するようにすることが...
[[396193]]アクセス制御市場世界のアクセス制御システム市場は、2020 年の 86 億米ドル...
スティーブン・ホーキング博士はかつてこう言った。「効果的な人工知能の開発に成功すれば、私たちの文明史...
上級数学の試験で悪い成績を取ることは、多くの人にとって悪夢です。高度な数学は AI ほど得意ではない...