RWKV の紹介: リニア トランスフォーマーの台頭と代替案の検討

RWKV の紹介: リニア トランスフォーマーの台頭と代替案の検討

RWKV ポッドキャストからの私の考えの一部を要約すると次のようになります: https://www.latent.space/p/rwkv#details


代替案が重要なのはなぜですか?

2023年のAI革命を控え、 Transformerアーキテクチャは現在最盛期を迎えています。しかし、成功したTransformerアーキテクチャを急いで採用しようとすると、そこから学ぶことができる代替案を見落としてしまう可能性が高くなります。

エンジニアとして、私たちは画一的なアプローチをとったり、すべての釘に同じハンマーを使ったりすべきではありません。私たちは、あらゆる解決策においてトレードオフを見つける必要があります。そうしないと、特定のプラットフォームの制限に閉じ込められ、他の選択肢があることを知らないために「幸せ」を感じ、一夜にして開発が解放前の時代に戻ってしまう可能性があります。

この問題は人工知能分野に特有のものではなく、古代から現代まで繰り返されてきた歴史的なパターンです。


SQL 戦争の歴史からの一ページ…

ソフトウェア開発における最近の注目すべき例としては、SQL サーバーが物理的な制限に直面し始めたときに出現した NoSQL のトレンドが挙げられます。世界中のスタートアップ企業は、規模がそこまで及ばないにもかかわらず、「規模」を理由に NoSQL に目を向けています。

しかし、時が経つにつれ、最終的な一貫性と NoSQL 管理オーバーヘッドの出現、そして SSD の速度と容量の点でのハードウェア機能の飛躍的な向上により、SQL サーバーは、その使いやすさと、現在では 90% 以上のスタートアップにとって十分なスケーラビリティにより、最近復活を遂げています。

これは、SQL が NoSQL よりも優れていることを意味しますか、それともその逆ですか?いいえ、それは単に、それぞれのテクノロジーには、長所と短所、そして類似のテクノロジー間で相互に作用できる学習ポイントを伴う好ましい使用例があるということを意味します。


現在のTransformerアーキテクチャの最大の問題点は何ですか?

通常、これには計算、コンテキスト サイズ、データセット、およびアライメントが含まれます。この議論では、計算とコンテキストの長さに焦点を当てます。

  • 使用/生成されるトークンごとに O(N^2) 増加するため、計算コストは​​ 2 次になります。これにより、コンテキスト サイズが 100,000 を超えるとコストが非常に高くなり、推論とトレーニングの両方に影響します。
  • 現在の GPU 不足により、問題はさらに悪化しています。
  • コンテキスト サイズによって Attention メカニズムが制約され、「インテリジェント エージェント」の使用例 (smol-dev など) が厳しく制限され、問題解決が強制されます。コンテキストが大きいほど、回避策の必要性は少なくなります。

では、この問題をどう解決すればよいのでしょうか?


RWKV の紹介: 線形トランスフォーマー/ 最新の大規模 RNN

RWKV と Microsoft RetNet は、「線形トランスフォーマー」と呼ばれる新しいクラスのモデルの最初のものです。

以下のサポートにより、上記の 3 つの制限に直接対処します。

  • コンテキスト サイズに依存しない線形計算コスト。
  • CPU (特に ARM) では、これにより、はるかに低い要件で RNN モードで適切なトークン/秒を出力できるようになります。
  • RNN の場合、コンテキスト サイズの厳密な制限はありません。ドキュメント内の制限はガイドラインであり、微調整することができます。

AI モデルを10 万以上のコンテキスト サイズに拡大し続けると、二次計算コストが指数関数的に増加し始めます。

ただし、線形トランスフォーマーは、リカレント ニューラル ネットワーク アーキテクチャを放棄してそのボトルネックを解決するわけではないため、リカレント ニューラル ネットワーク アーキテクチャを置き換える必要が生じました。

ただし、再設計された RNN は、Transformer から学んだスケーラブルな教訓を活用し、Transformer と同様に動作し、これらのボトルネックを解消します。

トレーニング速度の面では、Transformers が再び登場し、同様のパフォーマンス レベルを維持しながら、トレーニングで 10 億を超えるパラメータにスケーリングしながら、O(N) コストで効率的に実行できるようになりました。

チャート: トークンごとに線形にスケーリングされる線形トランスフォーマーの計算コストと、トランスフォーマーの指数関数的な増加


二乗比率で直線的にスケーリングすると、トークン数が 2,000 の場合に 10 倍以上、トークンの長さが 100,000 の場合に 100 倍以上になります。

RWKV は 140 億のパラメータを持ち、GPT NeoX や Pile などの他の同様のデータセットと同等の最大のオープンソース線形トランスフォーマーです。


さまざまなベンチマークにより、RWKVモデルの性能は、同様のサイズの既存の変圧器モデルと同等であることが示されています。


しかし、もっと簡単に言えば、これは何を意味するのでしょうか?


アドバンテージ

  • 推論/トレーニングは、コンテキストサイズが大きい場合、Transformer よりも 10 倍以上安価です。
  • RNNモードでは、非常に限られたハードウェアでゆっくりと実行できます。
  • 同じデータセットでのTransformerと同様のパフォーマンス
  • RNN には技術的なコンテキスト サイズの制限はありません (コンテキストは無制限です)


欠点

  • スライディングウィンドウ問題、ある一定のポイントを超えるとメモリが失われる
  • 14Bパラメータを超えて拡張できることは証明されていない
  • トランスフォーマーを最適化して採用する方が良い

したがって、RWKV はまだ LLaMA2 の 600 億以上のパラメータ規模には達していませんが、適切なサポートとリソースがあれば、特にモデルがより小型で効率的なモデルへと移行するにつれて、より低コストでより大規模な環境でそれを達成できる可能性があります。

使用ケースにおいて効率性が重要な場合は、これを考慮してください。しかし、これは究極の解決策ではありません。健康的な代替品が依然として重要です。


私たちがおそらく学ぶべき他の選択肢とその利点

拡散モデル: テキストのトレーニングは遅くなりますが、マルチエポックのトレーニングに対して非常に耐性があります。その理由を突き止めれば、トークン危機を緩和できるかもしれない。

生成的敵対ネットワーク/エージェント: データセットが利用できない場合でも、テキストベースのモデルであっても、特定のターゲットに必要なトレーニング セットをトレーニングするテクニックを使用できます。


原題: RWKV の紹介: 線形トランスフォーマーの台頭と代替案の検討、著者: picocreator

https://hackernoon.com/introducing-rwkv-the-rise-of-linear-transformers-and-exploring-alternatives

<<:  ハーバード大学の研究によると、GPT-4は一部の企業従業員のパフォーマンスを40%向上させることができるという。

>>: 

ブログ    
ブログ    

推薦する

...

2020 年に最も実用的な機械学習ツールは何ですか?

ミシュランの星付き料理を作るときと同じように、整理整頓されたキッチンを持つことは重要ですが、選択肢が...

...

...

インドネシアのゴミ分別:人工知能が役に立つ

上海市は7月に「史上最も厳しいゴミ分別措置」を実施し始めて以来、ゴミ分別は多くの人々の日常生活におけ...

AISpeechの趙恒毅氏:国内のスマート音声産業は幅広い発展の見通しがある

[51CTO.comからのオリジナル記事] 人工知能の急速な発展に伴い、音声インタラクションは人工知...

外国メディアエクスプレス: 初心者が習得すべき機械学習のコアアルゴリズムトップ10

[51CTO.com オリジナル記事] Foreign Media Express は、ヌカ・コー...

マシンビジョンは人工知能の次のフロンティアとなる

人工知能は過去1年間で大きな進歩を遂げ、人々にますます多くの利益をもたらしました。将来的には、マシン...

教師なし学習問題のための一般的なメタアルゴリズムベースのフレームワーク

11月13日、マイクロソフトリサーチとプリンストン大学の研究者らは、ガウス分布とサブスペースクラスタ...

爆発!ローカル展開、複数のAIモデル間の簡単な切り替え

私は週末に AI で遊んでいて、個人的な知識ベースをローカルに展開しています。基本的には OpenA...

ワイツマンとNVIDIAは、自然言語を使って写真を編集できるText2LIVEを共同でリリースした。

Photoshop のようなソフトウェアを使用することは、創造的な作業とみなされますか、それとも反...

ソラの13人のメンバーを解読:北京大学卒業生を含む中国人3人、博士号を取得したばかりの1人、そして21歳の天才

OpenAIはSoraで世界に衝撃を与えた。どのような才能あるチームがこのような傑作を開発できるので...