Nvidia H100 は GPT-3 を 11 分でトレーニングしました。PyTorch の創設者: 時間だけを見るのはやめましょう

Nvidia H100 は GPT-3 を 11 分でトレーニングしました。PyTorch の創設者: 時間だけを見るのはやめましょう

昨日、Lao Huangが再び「勝利」しました!

なぜ?最新の MLPerf ベンチマークでは、NVIDIA の H100 GPU チップセットが以下の 8 つのベンチマークすべてで新記録を樹立し、すべてのテストを完了した唯一のハードウェア プラットフォームとなったことが判明しました。

最新の MLPerf Training v3.0 には、生成 AI 機能に重点を置いた GPT-3 175B に基づく大規模言語モデル (LLM) テストが含まれていると報告されています。

画像ソース: MLPerf ベンチマーク。

LLM トレーニング テストでは、GPU アクセラレーションを専門とするクラウド コンピューティング サービス プロバイダーである CoreWeave が提供する NVIDIA HGX H100 インフラストラクチャも使用し、複数のスケールで LLM ワークロードを共同で送信しました。

結果は素晴らしいものでした。896個の Intel Xeon Platinum 8462Y と 3584 個の NVIDIA H100 チップの連携により、GPT-3 ベースの LLM トレーニング タスクがわずか 11 分で完了しました。

写真

突然、AIコミュニティは黄氏の勝利を喜ぶ声で満たされた。

しかし、これが本当に結果なのでしょうか?今日、誰かがこの件について疑問を呈しました。

まず、PyTorchの創設者であるSoumith Chintala氏は、GPT-3は11分ではトレーニングできないと考えていました。 GPT-3 アーキテクチャは、3584 個の H100 GPU を使用して、C4 データセットを 11 分でトレーニングし、対数確率は 2.69 でした。

ここでは「11 分」だけに注目しないでください。これは「ResNet-50 が 5 秒で MNIST (実際には CIFAR100 を意味していました) で 80% の精度にトレーニングされた」と言っているようなものです。

写真

Twitterユーザーの@abhi_venigallaさんも、生成AIスタートアップMosaicMLで働くSoumithさんの意見に賛同した。彼は、MLPerf ベンチマークで GPT-3 をトレーニングするのにかかる時間は 2 日になる可能性が高いと考えています。

彼の見解では、ベンチマークは完全な GPT-3 ではない。 MLPerf の LLM ベンチマークは開始チェックポイントのみを提供し、その後は目標損失に到達する必要があります。

したがって、GPT-3 を 11 分で実行するベンチマークは、3000 億トークン全体ではなく、12 億トークンのみをカバーします。また、540 TFLOPs/H100 に近いようで、構成からは FP8、約 27% MFU のようです。

しかし、H100 のソフトウェア ライフサイクルの初期段階であることを考えると、この規模でこのレベルのパフォーマンスを達成できたことは非常に驚くべきことだと彼は認めました。

写真

では、最新の MLPerf ベンチマークで GPT-3 が 11 分でトレーニングされたという主張は誤解なのでしょうか?コメント欄の友達も自分の意見を述べることができます。

<<:  LLaMA モデルは過去 3 か月間でどのように進化しましたか?指導の微調整の中心的な問題は何ですか?

>>:  1000ステップ未満の微調整で、LLaMAコンテキストは32Kに拡張されました。これは、Tian Yuandongチームの最新の研究です。

ブログ    
ブログ    

推薦する

...

...

AI 転移学習はどのように機能しますか? AI モデルとトレーニング プロセスでどのような役割を果たすのでしょうか?

今日、AI プログラムは、写真やビデオ内の顔や物体を認識し、音声をリアルタイムで書き起こし、X 線ス...

第2回解析アルゴリズムコンテストが開始され、技術専門家があなたの参加を待っています

データスキルについてまだ不安がありますか?アルゴリズムの革新を適用できる場所はありませんか?こんなに...

総合異常検知の新たな夜明け:華中科技大学などがGPT-4Vの総合異常検知性能を明らかに

異常検出タスクは、通常のデータ分布から大きく逸脱した外れ値を識別することを目的としており、産業検査、...

人工知能はテクノロジーとデータガバナンスの進化を推進する

2019年以降、アジア太平洋地域全体で政府主導のAIに関する取り組みが急増しています。これらの取り組...

ついに、私は物語を作るのをやめました! AIが「グーグル」を学習、Q&Aの精度は90%

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

生成AIの5つの主要モデル:VAE、GAN、拡散、トランスフォーマー、NeRF

タスクに適した GenAI モデルを選択するには、各モデルで使用されるテクノロジーとその特定の機能を...

人工知能とモノのインターネットがスマートライフを推進

AI と IoT テクノロジーがスマート シティにどのような革命をもたらしているか。人工知能 (AI...

人工直感は人工知能の次の発展方向となるだろう

AI はこれまでに開発された最も強力なテクノロジーの 1 つですが、すでに 4 回の進化を経ています...

...

...

50枚の写真が「毒された」安定した拡散、車と牛の区別がつかない

AI侵害に対するアーティストの反撃がここに——絵画に「毒」を入れると、AIが「毒化」されて使用時に誤...

人工知能と5G: 新たなデータの世界へ

調査によると、AI デバイスのベンダー中心の展開モデルでは、トラフィックの急激な増加に対応できないこ...

...