10000000000!マイクロソフトはTransformerを改良し、一度に多くのトークンを記憶できるようにした

10000000000!マイクロソフトはTransformerを改良し、一度に多くのトークンを記憶できるようにした

Microsoft Research Asia の最新の調査は少々衝撃的だ。

彼らは、実際にトークンを10 億にまで拡大した Transformer のバリアントを開発しました。

写真

どんなコンセプトですか?

現在、最も強力な GPT-4 は一度に最大32,000トークンしか処理できません。これは 50 ページのテキストに相当します。

わずか1分で数万語の小説を読み終えることができるクロードは、トークンを100k (100,000)しか持っていません。

一度に 10 億に拡大し、この数は理論上は無限であるということは、次のことを意味しているのではないでしょうか。

近い将来、コーパス全体、あるいはインターネットさえもシーケンスとして考えられるようになるのでしょうか?

写真

もしこれが本当なら、想像もつきません。

どうやってやるんですか?

大規模予測モデルの時代では、シーケンスの長さを拡張することが重要な要件になっています。

しかし、既存の方法では、計算の複雑さを解決するのが困難であったり、モデルの表現力を処理できなかったりして、長さが非常に制限されてしまいます。

ここで著者は、距離が増加するにつれて注意フィールド(モデルの認識範囲)を指数関数的に拡大できる「拡張注意」と呼ばれるメカニズムを適用する Transformer のバリアントである LongNet を提案しています。

具体的には、 Dilated Attention は通常の Transformer の注意メカニズムを置き換え、その一般的な設計原則は次のとおりです。

トークン間の距離が増加するにつれて、注意の分布が指数関数的に減少するものとします。

以下の構成要素に示されているように、拡張注意は、短期的および長期的な依存関係をモデル化するための一連の注意パターンで構成されています。シーケンスの長さに応じてパターンの数を拡張できます。

写真

実験により、拡張注意によってトークン間の線形計算複雑性と対数依存性を生成できることが示され、注意リソースは限られているがすべてのトークンにアクセスできるという矛盾が解決されました。

さらに、著者らは多頭拡張注意も導入しました。下の図に示すように、位置が継続的に変化するため、異なる頭部間の注意パターンは異なります。

写真

最終的な実装では、LongNet を高密度 Transformer に変換できるため、既存の Transformer 最適化手法(カーネル融合、量子化、分散トレーニングなど) をシームレスに統合できます

LongNet は線形複雑性を利用することで、分散アルゴリズムを使用してノード間で並列トレーニングを実行し、コンピューティングとメモリの制限を打破することもできます。

下の図に示すように、LongNet はシーケンス次元を分割して 2 つの GPU 上で並列にトレーニングされます。デバイスの数が増大しても、計算コストと通信コストはほぼ一定のままです。

写真

これにより、LongNet は、ほぼ一定の実行時間で、シーケンスの長さを最大 10 億トークンまで効率的に拡張できます(短いシーケンスのパフォーマンスを犠牲にすることなく)

写真

対照的に、通常の Transformer は依然として二次複雑性の影響に悩まされています。

実験的評価

著者らは、LongNet を通常の Transformer およびスパース Transformer と比較しました。

3 つのアーキテクチャの違いは、アテンション レイヤーのみです。モデルのシーケンス長は 2K から32Kに拡張され、バッチ サイズは縮小されて各バッチのトークン数は変更されません。

LongNetの場合、著者らはセグメント長w = {2048、4096、8192、16384、32768}、拡張率r = {1、2、4、6、12}を使用し、スパースアテンションの固定パターンを実装し、実験を公平にするために、LongNetの計算フロップに合わせてスパース比を調整しました。

(計算上の制限により、LongNet は 32K のシーケンス長までしか拡張できません)。

次の表は、Stack データセットにおける上記 3 つのモデルの結果を示しています。測定指標は困惑度であり、各モデルの異なるシーケンス長がテストされています。

入力の長さがモデルでサポートされている最大長を超える場合、著者らは最先端の言語モデル推論外挿法であるBlocked Causal Attention (BCA)を使用します。

さらに、絶対位置のエンコーディングは削除されます。

写真

結果は次のことを示しています:

まず、トレーニング中にシーケンスの長さを増やすと、一般的に言語モデルが向上します。

2 番目に、シーケンスの長さ(推論時)の外挿は、長さがモデルがサポートする長さよりもはるかに大きい場合にはうまく機能しません。

最後に、LongNet はあらゆる指標で他の 2 つのベースラインを上回っており、言語モデリングにおける有効性を実証していることがわかります。

さらに、著者らは、言語モデルのコンテキスト長を拡張する場合にも LongNet がより効果的な方法であることを実証しました。

写真

ネットユーザー:Memery があれば十分

この功績を読んで、多くの人が結局「必要なのは記憶力だけ」と結論づけた(犬の頭)

写真

写真

すごいですね!本当にそれが現実で再現可能であることを願っています。

写真

しかし、論争もある。

たとえば、この実験では LongNet の長さが 32k にしか拡張されず、10 億にはまだまだ遠いと不満を言う人もいました。

写真

また、この方法はあまり革新的ではなく、実際にはスパース・アテンション・モデルに似ていると多くの人が言っています。

写真

著者について

この論文には 7 人の著者がおり、全員が Microsoft Research Asia に所属しています。

共著者2名:

Microsoft Research Asia のインターンであるJiayu Dingは、北京郵電大学でコンピューターサイエンスの学士号と修士号を取得しています。

Ma Shuming は、 Microsoft Research Asia の自然言語コンピューティング グループの研究者です。2019 年に入社し、北京大学で学士号と修士号を取得しています。

責任著者は、Microsoft Research Asia の自然言語コンピューティング グループのグローバル リサーチ パートナーであるFuru Weiです。彼は武漢大学で博士号を取得しており、以前は IBM 中国研究所の研究員および香港理工大学電子計算学部の研究助手を務めていました。

論文アドレス: https://arxiv.org/abs/2307.02486

参考リンク:
[1] https://twitter.com/arankomatsuzaki/status/1676765133362675712
[2] https://twitter.com/AlphaSignalAI/status/1677009901334192143?s=20
[3] https://www.reddit.com/r/LocalLLaMA/comments/14rym30/longnet_scaling_transformers_to_1000000000_tokens/


<<:  5400億パラメータの大規模モデル進化ツリーが大幅に更新されました!最も詳細なプロンプトスキルを備えた85ページのLLM開発履歴

>>:  ファーウェイクラウド、AIで産業を変革するPangu Big Model 3.0とN-Teng AIクラウドサービスをリリース

ブログ    

推薦する

2024年の人工知能とデジタルツインの開発動向

人工知能 (AI) とデジタル ツインは、複数の業界で重要な用途を持つ、よく議論される 2 つの技術...

...

スマートデバイスとエッジコンピューティングはどのように発展するのでしょうか?

エッジコンピューティングが増加しています。 AI とネットワークの進歩を組み合わせて、より強力なロー...

AI/MLを使用してテクノロジースタックを最適化し、ビジネス効率を向上させる方法

業界メディアとのインタビューで、レノボ グループのサービスおよびソリューション グループのシニア バ...

たった2時間で7元以下で3Dロボットが作れます

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

正義がアルゴリズムを採用したとき、最後に笑うのは正義か、それともテクノロジーか?

2017年4月11日、米国のロバーツ最高裁判所長官は、ニューヨークのレンセラー工科大学の学長との会...

Raft アルゴリズムの原理と CMQ への応用 (パート 2)

CMQにおけるラフトの応用初期には、rabbitmqをベースにスケーラブルなメッセージミドルウェア...

...

人工知能は教育にどのように活用されていますか?ここに実際の例をいくつか示しますので、ぜひご覧ください。

教育者、心理学者、親たちが、子どもがスクリーンを見る時間の長さについて議論する一方で、人工知能や機械...

研究によると、ChatGPT は科学的仮説の偽のデータセットを生成し、学術的誠実性に脅威を与える可能性がある。

ネイチャー誌は11月24日、現地時間水曜日に、今月初めに米国医師会眼科学会誌に掲載された論文で、著者...

AIエージェントを実装するには? 6 枚の写真 4090 Magic Llama2: タスクを分割して 1 つのコマンドで関数を呼び出す

AIエージェントは今話題になっています。OpenAIの応用研究ディレクターであるLilian Wen...

ディープラーニング、NLP、コンピュータービジョン向けのトップ 30 Python ライブラリ

[[358174]] Gregory Piatetsky による次のグラフでは、各リポジトリにカテゴ...

...

今年の春節旅行は異例、テクノロジーが鍵

今年も春節の旅行シーズンがやってきましたが、今年は明らかに例年とは違います。今年は、感染症予防・抑制...