注意ベースのモデルの代替として、純粋な MLP アーキテクチャがますます注目を集めています。 NLP では、gMLP などの最近の研究により、純粋な MLP は言語モデリングにおいてトランスフォーマーと同等のパフォーマンスを達成できるものの、下流のタスクではトランスフォーマーよりも弱いことが示されています。 Meta AI とニューヨーク州立大学バッファロー校の研究者は、表現力の面での MLP の限界を分析し、特徴と入力 (トークン) の両方の次元で専門家の混合 (MoE) を備えたスパースにアクティブ化された MLP を提案しました。このスパースな純粋な MLP は、計算を変更せずにモデルの容量と表現力を大幅に向上させます。この研究では、条件付き計算と 2 つのルーティング戦略を組み合わせるという重要な課題に取り組んでいます。 論文アドレス: https://arxiv.org/pdf/2203.06850.pdf トランスフォーマーベースのMoE、高密度トランスフォーマー、純粋MLPと比較して、本研究で提案されたスパース純粋MLP(sMLP)は、言語モデリングの難解さを改善し、トレーニング効率を最大2倍向上させます。最後に、6 つのダウンストリーム タスクでスパース純粋 MLP のゼロ ショット コンテキスト学習パフォーマンスを評価し、トランスフォーマー ベースの MoE および高密度トランスフォーマーよりも優れていることがわかりました。 方法スパース活性化を伴う純粋なMLPsMLP の全体的なアーキテクチャを図 2 に示します。このアーキテクチャには、N_1 個の密なブロックと N_2 個の疎なブロックが含まれています。 N_1 と N_2 はどちらもハイパーパラメータです。各スパース ブロックには 2 つのモジュールが含まれます。
tMoE モジュールと sMoE モジュールはどちらも 2 つの要素で構成されています。
エキスパート モジュールは入力の処理を担当します。 tMoE モジュールの場合、上の図 2 に示すように、各エキスパートには FFN が含まれます。 sMoE モジュールの場合、各エキスパートには、図 6 (右) に示すように空間ゲーティング ユニットが含まれています。
このモジュールは、入力の各部分をどのエキスパートが処理するかを決定するため、MoE 構造を機能次元に拡張するための独自のルーティング方法を設計する必要があります。 図 3 (左) は、既存のトランスフォーマーベースの MoE (Lepikhin et al., 2020; Fedus et al., 2021; Lewis et al., 2021; Roller et al., 2021) のゲーティング関数の例を示しています。 x_ij は、i_番目のトークン内の j_番目の隠し次元の値を表します。 式(3)に示すように: tMoEは、式(3)のパラメータ化によって記述された学習されたゲーティング関数を使用して、これらの4つのトークンをFFN層の3人のエキスパートに送信します。既存のいくつかの MoE とは異なり、この研究では、スパースな純粋な MLP アーキテクチャにおいて、図 3 (右) に示すように、隠し次元に沿って隠し表現をブロックし、ブロック ベクトルを異なるエキスパートに送信することを提案しています。 これらの既存の MoE とは異なり、本研究では、スパースなフル MLP アーキテクチャにおいて、潜在次元に沿って潜在表現をチャンク化し、チャンク化されたベクトルをさまざまなエキスパートに送信することを提案しています (図 3 (右) を参照)。 フィーチャ空間でのルーティングルーティング トークンと比較すると、ルーティングの隠し次元は、将来のトークンを単純に予測すると情報が漏洩するため、自己回帰モデルでは独特の課題に直面します。さらに、自己注意を備えたTransformerベースのMoEとは異なり、情報漏洩を防ぐために適切なマスキングを直接適用することはできないため、TransformerベースのMoEの言語モデリングには既存のルーティング方法を採用することはできません。この研究では、決定論的ルーティングと部分予測という 2 つのソリューションを比較しました。 実験と結果トークン操作の比較この研究では、sMLP モデルを 2 つの高密度モデル、Transformer (Vaswani et al., 2017b) と gMLP (Liu et al., 2021a) と比較しました。フル MLP ベース モデルとトランスフォーマー ベース モデルの主な違いは、トークン操作にあります。この研究では、Transformers の自己注意モジュール、gMLP の空間ゲーティング ユニット、sMLP モデルの sMoE モジュールという 3 つのトークン単位の操作を比較しました。表 3 は、3 つのトークン操作とそれぞれのヘッダー メカニズムを比較したものです。 下の図 4 は、このモデルと、ヘッドの数が異なる密なモデルを比較したものです。 Transformer モデルは、マルチヘッド メカニズムの恩恵を大いに受けます。ただし、gMLP モデルではパラメータの数が増えても、マルチヘッド メカニズムによってパフォーマンスは向上しません。 sMLP モデルは gMLP のマルチヘッド ソリューションとして見ることもできます。これにより、MLP ベースのモデルのパフォーマンスが大幅に向上し、トランスフォーマー モデルよりも優れたパフォーマンスを発揮します。 スパースMLPの結果下の図 5 は、トレーニング ステップ数 (上) とトレーニング時間 (下) で測定された品質 (有効な困惑度) とトレーニング効率を示しています。研究者らは、2 つのルーティング戦略バリアントを備えた sMLP が、ほぼ同じ FLOP 数を持つ最先端のトランスフォーマーベースの MoE モデルよりも優れていることを発見しました。 以下の表4は、主な実験における詳細な比較結果をまとめたものです。研究者らは、すべてのモデルの FLOP を約 0.8T に制御しました。モデル層の数の違いに加えて、埋め込み次元は 1024、隠し次元は 4096 です。ご覧のとおり、sMLP モデルは 25,000 のトレーニング ステップで最高の一般化を達成しながら、最高のトレーニング速度を達成しています。 HASH レイヤーは、すべての Transformer ベースラインの中で最もパフォーマンスが高く、所要時間も最も短くなります。 拡張機能モデルのスケーラビリティをテストするために、この研究ではモデル サイズのトレーニングを 2.0 TFLOP に増やしました。表4(下)に結果をまとめます。 表 4 (上部) のモデルと比較して、この研究では、表 5 に示すように、埋め込みを 1024 から 2048 に変更し、潜在次元を 4096 から 8192 に調整することで、すべてのモデルをスケールアップしました。この研究では、表 2 に示すように、事前トレーニング データのサイズも増加しました。 |
>>: 2022 年ソフトウェア エンジニア レポートが公開されました。最も高い年収はサイバーセキュリティ業界、機械学習はNLPに勝てない
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
ロボットが建設業界で重要な役割を果たすことは間違いありませんが、マッキンゼーのレポートによると、プロ...
中国ではクラウドコンピューティングが10年以上にわたって発展してきました。5G、AI、ビッグデータ、...
最近、「小さな言語モデル」がにわかに話題になっています。今週月曜日、4億1500万ドルの資金調達を完...
ChatGPT と Midjournal により、生成 AI のアプリケーションが急増しました。生成...
既存企業は、クラウド コンピューティングの導入を検討する際、ジレンマに直面します。メリットは魅力的か...
歴史的に、これらの国や地域は旧植民地帝国によって貧困化しており、ヨーロッパの植民地主義は土地の暴力的...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
史上最強の集団が力を合わせてAI開発に挑む?最近、北京大学の公式Weiboアカウントは、北京大学と清...
「テクノロジー研究と現実世界の問題を組み合わせ、現実の問題を解決して価値を生み出すことにますます興味...
[51CTO.com 北京レポート] 2017年8月23日から27日まで、2017年世界ロボット大会...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...