世界最大の AI チップが、単一デバイスでの大規模モデルのトレーニング記録を更新。Cerebras は GPU を「殺す」ことを目指している

世界最大の AI チップが、単一デバイスでの大規模モデルのトレーニング記録を更新。Cerebras は GPU を「殺す」ことを目指している

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式サイトにアクセスして許可を申請してください。

世界最大のアクセラレータチップ「CS-2 Wafer Scale Engine」の製造で知られるCerebras社は昨日、人工知能のトレーニングに「巨大コア」を使用するという重要な一歩を踏み出したと発表した。同社は、世界最大のNLP(自然言語処理)AIモデルを単一チップ上でトレーニングした。

このモデルには 20 億のパラメータがあり、CS-2 チップでトレーニングされました。世界最大のアクセラレータ チップは 7nm プロセスを使用し、単一の正方形のウェーハからエッチングされます。主流のチップより数百倍大きく、15KWの電力を誇ります。 2.6兆個の7nmトランジスタを統合し、85万個のコアと40GBのメモリを搭載しています。

図1 CS-2 ウェーハスケールエンジンチップ

単一チップ上での大規模 AI モデルのトレーニングの新記録

NLP モデルの開発は人工知能の重要な分野です。 NLP モデルを使用すると、人工知能はテキストの意味を「理解」し、対応するアクションを実行できます。 OpenAI の DALL.E モデルは典型的な NLP モデルです。このモデルは、ユーザーが入力したテキスト情報を画像出力に変換できます。

例えば、ユーザーが「アボカド型のアームチェア」と入力すると、AI はこの文章に対応する複数の画像を自動的に生成します。

図:情報を受けてAIが生成した「アボカド型アームチェア」の画像

それだけでなく、このモデルにより、AI は種、形状、歴史的時代などの複雑な知識を理解することもできます。

しかし、これらすべてを実現するのは簡単ではありません。従来の NLP モデルの開発には、非常に高い計算コストと技術的な障壁があります。

実際、数字だけを言えば、Cerebras が開発したこのモデルの 20 億のパラメータは、同業他社と比べるとやや平凡に思えます。

前述のDALL.Eモデルには120億のパラメータがあるが、現在利用可能な最大のモデルは、昨年末にDeepMindがリリースしたGopherで、2800億のパラメータがある。

しかし、驚くべき数字とは別に、Cerebras の NLP 開発にはもう 1 つの大きな進歩があります。それは、NLP モデルの開発の難しさが軽減されることです。

「巨大コア」はどのようにして GPU に勝つのでしょうか?

従来、NLP モデルを開発するには、開発者が巨大な NLP モデルを複数の機能部分に分割し、そのワークロードを数百または数千のグラフィックス処理ユニットに分散する必要がありました。

数千のグラフィック処理ユニットは、メーカーにとって莫大なコストとなります。

技術的な問題もメーカーに大きな苦痛をもたらします。

モデルのスライスはカスタムの問題です。各ニューラル ネットワーク、各 GPU の仕様、およびそれらを接続 (または相互接続) するネットワークはそれぞれ固有であり、システム間で移植できません。

メーカーは、最初のトレーニング セッションの前に、これらすべての要素を考慮する必要があります。

この作業は非常に複雑で、完了するまでに数か月かかることもあります。

Cerebras は、これが NLP モデルのトレーニングにおける「最も苦痛な側面の 1 つ」であると述べています。 NLP の開発に必要なリソースと専門知識を持つ企業はほんの一握りです。 AI 業界の他の企業にとって、NLP トレーニングは費用がかかり、時間がかかり、利用しにくいものとなっています。

しかし、1 つのチップで 20 億のパラメータを持つモデルをサポートできる場合、モデルのトレーニングのワークロードを分散するために多数の GPU を使用する必要はありません。これにより、メーカーは数千の GPU のトレーニング コストと関連するハードウェアおよびスケーリング要件を節約できます。これにより、ベンダーはモデルをスライスしてそのワークロードを数千の GPU に分散するという面倒な作業から解放されます。

Cerebras は数字だけにこだわっていません。パラメータの数は、モデルの品質を評価する唯一の基準ではありません。

セレブラスは、「巨大チップ」上に生まれたモデルが「勤勉」であることを望むのではなく、そのモデルが「賢い」ことを望んでいる。

Cerebras がパラメータ数の爆発的な増加を達成できた理由は、ウェイトフロー技術を使用しているためです。このテクノロジーは、コンピューティングとメモリのフットプリントを分離し、AI ワークロードで増加する任意の数のパラメータを保存できるようにメモリを拡張できるようにします。

この画期的な進歩により、モデルのセットアップにかかる時間が数か月から数分に短縮されました。また、開発者は「数回のキー操作で」GPT-J や GPT-Neo などのモデルを切り替えることができます。これにより、NLP 開発がはるかに簡単になります。

これにより、NLP 分野に新たな変化がもたらされました。

Intersect360 Researchの最高研究責任者であるダン・オールズ氏は、Cerebrasの成果について次のようにコメントしています。「大規模な言語モデルをコスト効率よくアクセスしやすい方法で大衆に提供できるCerebrasの能力は、人工知能の刺激的な新時代を切り開きます。」

<<:  世界的なサプライチェーンの混乱はロボットの導入をどのように促進するのでしょうか?

>>:  YOLOv6: 高速かつ正確な物体検出フレームワークがオープンソース化

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

AI愛好家が注目するべき8人のインスタグラマー

人工知能(AI)は現在、主要な技術進歩の一部となっています。そして、AI がますます強力かつ高度にな...

OSPFはSPFアルゴリズムを使用してルートを伝播します

SPF アルゴリズムは、各ルータをルートとして使用して、各宛先ルータまでの距離を計算します。各ルータ...

ビジネスの自動化は、企業のデジタル変革における重要な課題となっている。

多くの企業が、ロボティック・プロセス・オートメーション(RPA)を監督することを主な責務とする最高オ...

Amazon Web Services は、5 つのステップで企業の生成 AI の実現を支援します。

アマゾンのCEO、アンディ・ジャシー氏はかつて、アマゾン ウェブ サービスの目標は、誰もが大企業と同...

DALL·E 3=旅の途中+PS? OpenAIは、生画像の後に改良できる「シード」機能をひっそりとリリースした。

今日、DALL·E 3 のチュートリアルがオンラインで話題となり、1 日も経たないうちに 100 万...

...

人工知能と機械学習がもたらす劇的な変化を示す6つの事例

[[219896]]現在、人工知能 (AI) と機械学習 (ML) ほど注目されているテクノロジーは...

アマゾンが新しいAIツールを発表、数千の企業がBedrockを試すよう呼びかけ

アマゾンの幹部は7月27日、クラウドコンピューティング部門が人工知能サービス「ベッドロック」を試す顧...

日本の出生率が過去最低を記録、政府は国民が真実の愛を見つけるのを助けるためにAIの助けを求める

[[379564]]日本政府は国民が真実の愛を見つけるのを助けるために AI を活用しています。 (...

人工知能が私たちの日常生活を変える5つの方法

人工知能はもはや未来的な概念ではなく、私たちの日常生活に欠かせないものとなっています。私たちが目覚め...

ビデオメタデータとは何ですか?

ビデオ メタデータの分析と使用は、セキュリティにおける現在の多くの刺激的な開発の基盤となっています。...

...

サイバー犯罪者が機械学習を利用する 7 つの方法: 対抗策

[51CTO.com クイック翻訳] イスラエルのベングリオン国際空港は、世界で最も安全な空港の一つ...

ICLRスポットライト!清華大学は時系列異常検出アルゴリズムを提案し、5つのSOTA結果を達成した。

現実世界のシステムは、動作中に大量の時系列データを生成します。これらの時系列データを通じてシステム内...