この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 世界最大の事前トレーニング モデルを開発した WuDao チームが、事前トレーニングの概念を理解する方法を段階的に教えてくれます。 ちょうど今、清華大学のTang Jie教授とWuDaoチームが事前トレーニングモデルのレビューを発表しました。 論文全体は40ページ以上あり、大規模事前学習モデル(PTM)の過去と現在を、開発の歴史、最新のブレークスルー、将来の研究という3つの方向から包括的にレビューしています。 それでは、この論文の主な内容を見てみましょう。 事前トレーニングの歴史この論文は事前トレーニングの開発プロセスから始まります。 初期の事前トレーニング作業は主に転移学習に焦点を当てており、その中でも特徴転移とパラメータ転移は最も広く使用されていた 2 つの事前トレーニング方法でした。 初期の教師あり事前トレーニングから現在の自己教師あり事前トレーニングまで、Transformer ベースの PTM を NLP タスクに適用することが標準的なプロセスになっています。 近年、さまざまなタスクで PTM が成功しているのは、自己教師あり事前トレーニングと Transformer の組み合わせによるものだと言えます。 以下は論文の第 3 セクションの主な内容です。 ニューラル アーキテクチャ Transformer と、Transformer に基づく 2 つのマイルストーン事前トレーニング済みモデル (BERT と GPT)。 2 つのモデルは、それぞれ自己回帰言語モデリングとオートエンコーダ言語モデリングを事前トレーニングの目的として使用します。 以降のすべての事前トレーニング モデルは、これら 2 つのモデルのバリエーションであると言えます。 たとえば、論文に掲載されているこの図には、近年モデル アーキテクチャを変更し、新しい事前トレーニング タスクを検討した多くの PTM がリストされています。 大規模事前学習モデルの最新のブレークスルー論文のセクション 4 ~ 7 では、PTM における最新のブレークスルーを包括的にレビューします。 これらのブレークスルーは、主にコンピューティング能力の急上昇とデータ量の増加によって推進されており、次の 4 つの方向に進んでいます。 効果的なアーキテクチャの設計 セクション 4では、BERT ファミリーとそのバリアントである PTM について詳しく説明し、言語事前トレーニング用の Transformer ベースの BERT アーキテクチャはすべて、次の 2 つの目的に分類できると述べています。
さらに、現在のほとんどの研究は、自然言語理解における言語モデルのパフォーマンスを向上させるために BERT アーキテクチャを最適化することに重点を置いています。 複数のソースからのデータの活用 多くの典型的な PTM は、データ ホルダー、タイプ、特性が異なる複数ソースの異種データを利用します。 たとえば、多言語 PTM、マルチモーダル PTM、知識強化 PTM などです。 計算効率の向上 第 6 章では、3 つの側面から計算効率を向上させる方法を紹介します。 最初の方法はシステムレベルの最適化であり、これには単一デバイスの最適化とマルチデバイスの最適化が含まれます。 たとえば、ZeRO-Offload は、メモリスワップとデバイスの計算が可能な限り重複するように、CPU メモリと GPU メモリ間のスワップを調整するための高度な戦略を設計します。 2 番目のアプローチは、ソリューションのコストを削減するために、より効率的な事前トレーニング方法とモデル アーキテクチャを検討することです。 3 つ目は、パラメータの共有、モデルの剪定、知識の蒸留、モデルの量子化を含むモデル圧縮戦略です。 説明と理論的分析 この論文の第 7 章では、PTM の動作原理と特性について詳しく説明します。 まず、PTM によって捕捉される暗黙の知識には2 つの種類があります。 1つは言語知識であり、これは一般的に表現検出、表現分析、注意分析、生成分析の4つの方法を通じて研究されます。 もう一つは常識や事実を含む世界知識です。 この論文では、最近の関連研究の敵対的例では、PTM が深刻な堅牢性の問題を示し、同義語によって簡単に誤解され、誤った予測を行ったと指摘しました。 最後に、本論文では、PTM の構造的スパース性/モジュール性と、PTM の理論的分析における先駆的な研究についてまとめています。 今後の研究の方向性これまで、本論文では PTM の過去と現在について概説してきました。最後のセクションでは、上記のさまざまな研究に基づいて、PTM のさらなる発展に向けた7 つの方向性を指摘しています。
新しいアーキテクチャ、新しい事前トレーニングタスク、迅速なチューニング、信頼性など
より多くのモダリティ、説明、下流タスク、転移学習を含む
データ移行、並列戦略、大規模トレーニング、パッケージング、プラグインを含む
不確実性、一般化、堅牢性を含む
知識ベースのタスク、モデルの保存と管理を含む
知識の強化、知識のサポート、知識の監督、認知アーキテクチャ、知識の相互作用を含む
自然言語生成、対話システム、ドメイン固有のPTM、ドメイン適応、タスク適応を含む 論文の最後には、自然言語、つまり離散的な記号で表現される人間の知識とは異なり、PTM に格納されている知識は機械に優しい連続した実数値のベクトルであるとも述べられています。 チームはこれを知識モデル認識と名付け、将来的にはより効率的な方法でモデル認識を実現し、特定のタスクに対するより良い解決策を見つけたいと考えています。 詳細については、クリックして元の論文に直接アクセスしてください。 http://keg.cs.tsinghua.edu.cn/jietang/publications/AIOPEN21-Han-et-al-Pre-Trained%20Models-%20Past,%20Present%20and%20Future.pdf |
>>: 機械学習がゲームにおける物理シミュレーションに革命をもたらす
2023年ももうすぐ終わりです。過去1年間で、さまざまな大型モデルがリリースされました。 OpenA...
アメリカ心理学会は6月14日、「AIと頻繁に接触する従業員は孤独になりやすく、病気のリスクも高まる」...
[[283211]] Unsplash の Franck V による写真この記事はLeiphone....
人工知能 (AI) を使用した予測分析により、企業は過去のデータに基づいて将来の結果を予測し、運用効...
私は最近、BP アルゴリズムを体系的に研究し、この研究ノートを書きました。私の能力が限られているため...
[[403381]]この記事はWeChatの公開アカウント「UP Technology Contro...
近年、モバイルインターネットの発展とスマートフォンの普及により、さまざまなモバイルゲームが急速に普及...
Microsoft には現在 47,000 人以上の開発者がおり、毎月約 30,000 件の脆弱性...
人工知能の黄金の10年基礎技術は基本的に安定しており、拡大シナリオは流行の10年を迎えています。中国...
単純なスペルミスや単語の誤用によって会話ボットの応答が変わってしまう可能性がありますが、人間のエージ...
[[418996]]画像ソース: https://pixabay.com/images/id-391...
2010 年以前は、トレーニング コンピューティングの開発はムーアの法則に沿って 2 年ごとに 2 ...
ChatGPT の素晴らしい初年度が終わりに近づくにつれ、生成型人工知能 (genAI) と大規模言...