Microsoft Research Asia の最新の調査は少々衝撃的だ。 彼らは、実際にトークンを10 億にまで拡大した Transformer のバリアントを開発しました。 写真 どんなコンセプトですか? 現在、最も強力な GPT-4 は一度に最大32,000トークンしか処理できません。これは 50 ページのテキストに相当します。 わずか1分で数万語の小説を読み終えることができるクロードは、トークンを100k (100,000)しか持っていません。 一度に 10 億に拡大し、この数は理論上は無限であるということは、次のことを意味しているのではないでしょうか。 近い将来、コーパス全体、あるいはインターネットさえもシーケンスとして考えられるようになるのでしょうか? 写真 もしこれが本当なら、想像もつきません。 どうやってやるんですか?大規模予測モデルの時代では、シーケンスの長さを拡張することが重要な要件になっています。 しかし、既存の方法では、計算の複雑さを解決するのが困難であったり、モデルの表現力を処理できなかったりして、長さが非常に制限されてしまいます。 ここで著者は、距離が増加するにつれて注意フィールド(モデルの認識範囲)を指数関数的に拡大できる「拡張注意」と呼ばれるメカニズムを適用する Transformer のバリアントである LongNet を提案しています。 具体的には、 Dilated Attention は通常の Transformer の注意メカニズムを置き換え、その一般的な設計原則は次のとおりです。 トークン間の距離が増加するにつれて、注意の分布が指数関数的に減少するものとします。 以下の構成要素に示されているように、拡張注意は、短期的および長期的な依存関係をモデル化するための一連の注意パターンで構成されています。シーケンスの長さに応じてパターンの数を拡張できます。 写真 実験により、拡張注意によってトークン間の線形計算複雑性と対数依存性を生成できることが示され、注意リソースは限られているがすべてのトークンにアクセスできるという矛盾が解決されました。 さらに、著者らは多頭拡張注意も導入しました。下の図に示すように、位置が継続的に変化するため、異なる頭部間の注意パターンは異なります。 写真 最終的な実装では、LongNet を高密度 Transformer に変換できるため、既存の Transformer 最適化手法(カーネル融合、量子化、分散トレーニングなど) をシームレスに統合できます。 LongNet は線形複雑性を利用することで、分散アルゴリズムを使用してノード間で並列トレーニングを実行し、コンピューティングとメモリの制限を打破することもできます。 下の図に示すように、LongNet はシーケンス次元を分割して 2 つの GPU 上で並列にトレーニングされます。デバイスの数が増大しても、計算コストと通信コストはほぼ一定のままです。 写真 これにより、LongNet は、ほぼ一定の実行時間で、シーケンスの長さを最大 10 億トークンまで効率的に拡張できます(短いシーケンスのパフォーマンスを犠牲にすることなく) 。 写真 対照的に、通常の Transformer は依然として二次複雑性の影響に悩まされています。 実験的評価著者らは、LongNet を通常の Transformer およびスパース Transformer と比較しました。 3 つのアーキテクチャの違いは、アテンション レイヤーのみです。モデルのシーケンス長は 2K から32Kに拡張され、バッチ サイズは縮小されて各バッチのトークン数は変更されません。 LongNetの場合、著者らはセグメント長w = {2048、4096、8192、16384、32768}、拡張率r = {1、2、4、6、12}を使用し、スパースアテンションの固定パターンを実装し、実験を公平にするために、LongNetの計算フロップに合わせてスパース比を調整しました。 (計算上の制限により、LongNet は 32K のシーケンス長までしか拡張できません)。 次の表は、Stack データセットにおける上記 3 つのモデルの結果を示しています。測定指標は困惑度であり、各モデルの異なるシーケンス長がテストされています。 入力の長さがモデルでサポートされている最大長を超える場合、著者らは最先端の言語モデル推論外挿法であるBlocked Causal Attention (BCA)を使用します。 さらに、絶対位置のエンコーディングは削除されます。 写真 結果は次のことを示しています: まず、トレーニング中にシーケンスの長さを増やすと、一般的に言語モデルが向上します。 2 番目に、シーケンスの長さ(推論時)の外挿は、長さがモデルがサポートする長さよりもはるかに大きい場合にはうまく機能しません。 最後に、LongNet はあらゆる指標で他の 2 つのベースラインを上回っており、言語モデリングにおける有効性を実証していることがわかります。 さらに、著者らは、言語モデルのコンテキスト長を拡張する場合にも LongNet がより効果的な方法であることを実証しました。 写真 ネットユーザー:Memery があれば十分この功績を読んで、多くの人が結局「必要なのは記憶力だけ」と結論づけた(犬の頭) 写真 写真
写真 しかし、論争もある。 たとえば、この実験では LongNet の長さが 32k にしか拡張されず、10 億にはまだまだ遠いと不満を言う人もいました。 写真 また、この方法はあまり革新的ではなく、実際にはスパース・アテンション・モデルに似ていると多くの人が言っています。 写真 著者についてこの論文には 7 人の著者がおり、全員が Microsoft Research Asia に所属しています。 共著者2名: Microsoft Research Asia のインターンであるJiayu Dingは、北京郵電大学でコンピューターサイエンスの学士号と修士号を取得しています。 Ma Shuming は、 Microsoft Research Asia の自然言語コンピューティング グループの研究者です。2019 年に入社し、北京大学で学士号と修士号を取得しています。 責任著者は、Microsoft Research Asia の自然言語コンピューティング グループのグローバル リサーチ パートナーであるFuru Weiです。彼は武漢大学で博士号を取得しており、以前は IBM 中国研究所の研究員および香港理工大学電子計算学部の研究助手を務めていました。 論文アドレス: https://arxiv.org/abs/2307.02486 参考リンク: |
<<: 5400億パラメータの大規模モデル進化ツリーが大幅に更新されました!最も詳細なプロンプトスキルを備えた85ページのLLM開発履歴
>>: ファーウェイクラウド、AIで産業を変革するPangu Big Model 3.0とN-Teng AIクラウドサービスをリリース
【51CTO.comより引用】無人スーパーマーケットが誕生し、ヒューマノイドロボットがインタビュー...
人工知能 (AI) とデジタル ツインは、複数の業界で重要な用途を持つ、よく議論される 2 つの技術...
エッジコンピューティングが増加しています。 AI とネットワークの進歩を組み合わせて、より強力なロー...
業界メディアとのインタビューで、レノボ グループのサービスおよびソリューション グループのシニア バ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
2017年4月11日、米国のロバーツ最高裁判所長官は、ニューヨークのレンセラー工科大学の学長との会...
CMQにおけるラフトの応用初期には、rabbitmqをベースにスケーラブルなメッセージミドルウェア...
教育者、心理学者、親たちが、子どもがスクリーンを見る時間の長さについて議論する一方で、人工知能や機械...
ネイチャー誌は11月24日、現地時間水曜日に、今月初めに米国医師会眼科学会誌に掲載された論文で、著者...
AIエージェントは今話題になっています。OpenAIの応用研究ディレクターであるLilian Wen...
[[358174]] Gregory Piatetsky による次のグラフでは、各リポジトリにカテゴ...
今年も春節の旅行シーズンがやってきましたが、今年は明らかに例年とは違います。今年は、感染症予防・抑制...