つい最近、Microsoft と NVIDIA は 5,300 億のパラメータを持つ MT-NLG 言語モデルを発表しました。この Transformer ベースのモデルは、「世界最大かつ最も強力な生成言語モデル」として称賛されています。 これは間違いなく機械学習エンジニアリングの素晴らしい成果です。 しかし、この大型モデルのトレンドに興奮すべきなのでしょうか? 01. 脳のディープラーニング研究者たちは、平均的な人間の脳には 860 億個のニューロンと 100 兆個のシナプスが含まれていると推定しています。確かに、これらすべてが言語で使用されているわけではありません。興味深いことに、GPT-4 には約 100 兆個のパラメータがあると推定されています… この比較は大雑把ではありますが、人間の脳とほぼ同じサイズの言語モデルを構築することが長期的に見て実行可能なアプローチであるかどうか疑問に思うべきではないでしょうか。 もちろん、私たちの脳は何百万年もかけて進化してきた素晴らしい装置ですが、ディープラーニング モデルはほんの数十年前に誕生したばかりです。それでも、直感的に、計算できないこともあると分かるはずです。 02. ディープラーニングかディープウォレットか?巨大なテキスト データセットで 5,300 億のパラメータ モデルをトレーニングするには、間違いなく巨大なインフラストラクチャが必要です。 実際、Microsoft と Nvidia は数百台の DGX-A100 GPU サーバーを使用しています。各ユニットの価格は 199,000 ドルで、ネットワーク機器やホスト コンピューターなどのコストも含めると、この実験を再現しようとすると 1 億ドル近くを費やす必要があります。 ディープラーニング インフラストラクチャに 1 億ドルを費やすことを正当化するビジネス例を持つ企業はどれですか?それとも1000万ドルでしょうか?レア。 では、これらのモデルは一体誰のためのものなのでしょうか? 03. GPU クラスターエンジニアリングの素晴らしさにもかかわらず、GPU 上でディープラーニング モデルをトレーニングするのは骨の折れる作業です。 サーバーの仕様書によると、各 DGX サーバーは最大 6.5 キロワットの電力を消費する可能性があります。もちろん、データセンター (またはサーバー) には少なくとも同じくらいの冷却能力が必要です。 あなたがスターク家でウィンターフェルを救う必要があるのでなければ、熱放散は対処しなければならないもう一つの問題です。 さらに、気候や社会的責任の問題に対する一般の意識が高まるにつれて、企業も二酸化炭素排出量を考慮する必要があります。マサチューセッツ大学の 2019 年の研究では、「GPU で BERT をトレーニングすることは、米国を横断する飛行とほぼ同等である」ことが判明しました。 BERT-Large には 3 億 4000 万のパラメータがあります。これをトレーニングする際の二酸化炭素排出量はどれくらいですか?考えると怖いですね。 こうした大規模なモデルを構築し、推進することは、企業や個人が機械学習を理解し、活用する上で役立つのでしょうか? 代わりに、高品質の機械学習ソリューションを構築するために使用できる、より実用的な手法に焦点を当ててください。 04. 事前学習済みモデルを使用する ほとんどの場合、カスタム モデル アーキテクチャは必要ありません。 良い出発点は、解決したいタスク(英語のテキストの要約など)用に事前トレーニングされたモデルを探すことです。 次に、いくつかのモデルを試して、独自のデータを予測します。特定のパラメータが良好であることを示している場合は、完了です。より高い精度が必要な場合は、モデルの微調整を検討する必要があります。 05. より小さなモデルを使用するモデルを評価するときは、必要な精度を提供する最小のモデルを選択する必要があります。予測が高速化され、トレーニングと推論に必要なハードウェア リソースが少なくなります。 これは何も新しいことではありません。コンピューター ビジョンに詳しい人なら、2017 年に SqueezeNet が登場したとき、AlexNet と比較してモデル サイズが 50 分の 1 に縮小され、精度は同等かそれ以上になったことを覚えているでしょう。 自然言語処理コミュニティも、知識蒸留などの転移学習技術を使用して、サイズを縮小する取り組みを行っています。 DistilBERT はおそらく最もよく知られている成果です。 オリジナルの BERT モデルと比較すると、言語理解能力は 97% 維持され、サイズは 40% 小さくなり、速度は 60% 高速化されます。同じアプローチは、Facebook の BART などの他のモデルにも適用されています。 ビッグサイエンスプロジェクトの最新モデルも印象的です。下の図に示すように、T0 モデルはサイズが 16 倍小さいにもかかわらず、多くのタスクで GPT-3 よりも優れています。 06. モデルを微調整するモデルを特化する必要がある場合、モデルを最初からトレーニングする必要はありません。代わりに、微調整、つまり独自のデータで数エポックだけトレーニングする必要があります。 転移学習を使用する利点:
言い換えれば、時間を節約し、お金を節約し、ハードウェア リソースを節約し、世界を救うのです。 07. クラウドベースのインフラストラクチャを使用する好むと好まざるとにかかわらず、クラウド コンピューティング企業は効率的なインフラストラクチャを構築する方法を知っています。調査によると、クラウドベースのインフラストラクチャは他のインフラストラクチャよりもエネルギー効率と炭素効率に優れています。 Earth.org は、クラウド インフラストラクチャは完璧ではないものの、他のインフラストラクチャよりもエネルギー効率が高く、環境に有益なサービスと経済成長を促進すると述べています。 ” クラウドには、使いやすさ、柔軟性、従量課金制の点で確かに多くの利点があります。 08. モデルを最適化するコンパイラから仮想マシンまで、ソフトウェア エンジニアは長い間、ハードウェア向けにコードを自動的に最適化するツールを使用してきました。 しかし、機械学習コミュニティはこの問題に引き続き取り組んでおり、それには十分な理由があります。モデルのサイズと速度を最適化することは、次の技術を必要とする非常に複雑な作業です。
幸いなことに、Optimum オープンソース ライブラリや、1 ミリ秒の遅延で Transformer の精度を実現するコンテナ化されたソリューションである Infinity などの自動化ツールが登場し始めています。 09. 結論過去数年間、大規模言語モデルのサイズは年間 10 倍に増加しました。これはまた別のムーアの法則のようです。 機械学習がモデル拡大の道を進み続けると、収益の減少、コストの増加、複雑さの増大などにつながります。 これが人工知能の未来なのでしょうか? 兆パラメータモデルを追い求めるのではなく、現実世界の問題に対する実用的かつ効率的なソリューションの構築にもっと経験を積んだほうが良いのではないでしょうか。 |
「時期尚早な最適化は諸悪の根源である。」 —ドナルド・アーヴィン・クヌース、コンピュータ科学者、数...
多くの企業が AI のビジネスケースを模索し、経営陣の支援を求め、基本的な IT およびデータ機能を...
よく訓練された兵士であっても、手ぶらで任務を遂行することはできない。 データ サイエンティストには、...
新型コロナウイルス感染症のパンデミックによってもたらされた変化の中で、組織の業務が在宅勤務からリモー...
【環球時報記者 徐陸明】6月17日、「国防ニュース」ウェブサイトの報道によると、最新の軍事予算文書...
この記事では、著者は GitHub、Medium の記事、arXiv の論文、LinkedIn など...
調査会社IDCが2020年6月に発表した調査レポートによると、人工知能の取り組みの約28%が失敗して...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[412579]] 2016 年には、財務報告書に基づいてプレスリリースを書くという、人間と機械に...
AIへの追加投資は2030年までに雇用の5%に貢献し、創出される追加の富は労働需要を促進し、雇用を...