市場動向 | 人工知能が光接続の需要を急増させる

市場動向 | 人工知能が光接続の需要を急増させる

世界のデジタル経済が急速に発展するにつれ、クラウド コンピューティングによってデータ転送速度に対する期待が高まっていますが、人工知能 (AI) のワークロードによって、より高速かつ確実にデータを転送するための帯域幅に対する圧力が高まっています。

Compute Express Link (CXL) などのプロトコルは、データの保存場所を必要な場所の近くに最適化するのに役立ちますが、データをできるだけ早く移動するには接続性が依然として重要です。採用は減少しましたが、Amazon や Google などの企業によるデータセンターでの AI の拡張を目的とした光トランシーバー技術の採用が増加しており、接続性はハードウェアやソフトウェアとともにフルスタック システムに組み込まれています。

光通信市場調査会社LightCountingは、2023年7月の大規模データセンター光学レポートの中で、光トランシーバーの売上増加は、GPUおよびGPUベースのAIクラスターシステムの売上の大幅な増加と相関していると述べました。同社は、AI クラスター アプリケーション向けのイーサネット光トランシーバーの売上高が今後 5 年間で 176 億ドルに達すると予測しており、イーサネット トランシーバーのその他のすべてのアプリケーションを合わせると、同じ期間に 285 億ドルの売上高が生み出されるだろうと予測しています。

人工知能をサポートするクラスターの導入により、まだ現実化していない景気後退を見越したクラウド コンピューティング企業による支出削減が相殺されました。

AI 接続の必要性は、ChatGTP の最近の話題より数年前から存在しており、Google は 2019 年から 2020 年にかけて、データセンター インフラストラクチャの他の部分よりも多くの光学系を AI クラスターに導入しました。 LightCounting は、2022 年までに AI クラスターに導入される光トランシーバーが市場全体の 25% を占めると予測しています。

ライトカウンティングのCEOであるウラド・コズロフ氏はインタビューで、2022年末に生産需要が鈍化したため、今年第1四半期には光モジュールの売上が減少するだろうと語った。しかし、今年4月までに、Nvidiaの人工知能分野でのビジネスが明らかに活発化し、これもLightCountingの予測を押し上げました。 「これは、AIインフラを構築しているすべての競合他社への警告でもあります。」

AIへの関心が高まるにつれ、インフラの導入を簡素化する必要性が高まっている

コズロフ氏は、AIインフラ市場におけるNVIDIAの主な優位性は、光接続、ハードウェア、ソフトウェアを含むフルスタックシステムを開発していることだと述べた。 「GoogleとAmazonの取り組みを見れば、彼らはAIのハードウェアとソフトウェアを社内で開発していることがわかります。」

同氏は、これらの企業やマイクロソフトなどの企業は以前からAIアプリケーションで利益を上げてきたが、ChatGPTの出現により、AIをさまざまな業界でより幅広く活用して労働者の生産性を高めることができるという考えが広まったと述べた。 「大企業だけでなく、他の多くの企業もAIに注目し始めています。」

コズロフ氏は、多くの企業がソフトウェアとハ​​ードウェアの両方を構築する専門知識を持っていないため、フルスタックソリューションが魅力的であり、Nvidia に頼ることで AI インフラストラクチャの構築を開始しやすくなると述べた。

接続性に関して言えば、光トランシーバーの利点は、より長い距離にわたってより高いデータレートをサポートできることです。銅線は予想以上に耐久性に優れていますが、データ速度が上がると距離は短くなります。 「同時に、AI クラスターはますます大きくなっています。」コズロフ氏は、Google はアレイに数万個の GPU を搭載することを検討していると述べた。 「システムが大きくなると、当然距離も長くなります。より多くの光学系を使用する必要があります。」

コズロフ氏は、光スイッチは長距離にわたって高速で信号を伝送できることに加え、接続をより簡単に再構成できるという点でも魅力的だと述べた。この柔軟性は、GPU がデータセンターのさまざまな場所に分散している場合に役立ち、問題のあるノードをすばやくバイパスしてモデルを実行し続けることができるため、スケーラビリティと信頼性の向上に役立つ。

光トランシーバーはプロトコルに依存しないため、イーサネットと InfiniBand の両方で適切に動作します。光ファイバーコネクタもありません。すべて電気式です。

コズロフ氏は、注目すべき傾向として、光ファイバーケーブルからプラグ可能な光学機器への移行が挙げられると述べた。 「それはサーバーに接続するだけの小さなデバイスです。」

同氏は、Nvidia は最近の光ブームの推進力の一つであり、ソリューションの接続密度が高いことからプラグ可能なトランシーバーに移行していると述べた。 LightCounting は、Nvidia の 2023 年 4 月の収益報告で AI インフラに対する全体的な資金調達規模が示唆されたと報告しているが、実際の数字は不明である。 Nvidia の 2023 年第 2 四半期の収益は、主に AI クラスター向けの GPU および GPU ベースのシステムの販売によって前四半期比 50% 増加すると予想されており、一部の金融アナリストは、AI アプリケーション向けのトランシーバーの累計収益が今後 5 年間で 1,000 億ドル以上に達すると予測しています。

ワークロードがデータセンターの設計を定義する

メディアとのインタビューで、Nvidia Networkingの上級副社長であるギラッド・シャイナー氏は、人工知能のワークロードとそれに必要な接続を含め、データセンター全体を特別に設計する必要があると語った。 「すべてはバランスよく行われなければなりません。」

AIのワークロードはデータセンター内のさまざまな接続デバイスに分散されていると彼は述べた。 「データセンターの機能を定義する要素はネットワークです。すべてをどのように接続するかによって、どのようなワークロードを実行できるかが決まります。」

シャイナー氏は、これらの要素が整えば、データセンターに搭載される必要なチップやASICを作成できると述べた。

InfiniBand は、Nvidia の AI データセンター ソリューションにおいて重要な役割を果たします。同社のQuantum InfiniBandインネットワークコンピューティングプラットフォームは、高性能コンピューティング(HPC)、人工知能、ハイパースケールクラウドインフラストラクチャ向けに設計されています。しかし、Nvidia には、有線ベースのシリアル マルチチャネル短距離通信リンクである独自の NVLink もあります。独自の高速信号相互接続 (NVHS) を使用し、PCI Express とは異なり、デバイスを複数の NVLink で構成でき、デバイスは中央ハブではなくメッシュ ネットワークを使用して通信します。

シャイナー氏は、NVLink はメモリ アクセスを共有する機能があり、InfiniBand と組み合わせることでプラットフォーム全体の水平スケーリングが可能になると述べました。

同氏は、プラットフォーム自体の目的が重要だと付け加えた。 「どのようなワークロードを実行したいですか? どのような問題を解決したいですか?」とシャイナー氏は言う。データセンターの目的が決まれば、InfiniBandやNVLinkなどの適切なネットワークをインストールして、必要なデータスループットを得ることができるが、これはより難しい部分であり、高速化するには大量の帯域幅も必要になる。 「これを迅速に行う必要があるのは、分散コンピューティングを扱っているからです。」

シャイナー氏は、重要なのはネットワークが大規模にフル負荷で稼働する能力であり、最も遅いリンクがシステム全体のパフォーマンスを決定すると述べた。従来のクラウド コンピューティング用に構築されたデータ センターは、極めて低いレイテンシで動作する数千の GPU を必要とする AI ワークロードに必要なパフォーマンスを提供するようには設計されていません。 「これは非常に複雑なプロセスであり、同期が必要です」と彼は語った。

シュナイダーエレクトリックのイノベーションおよびデータセンター担当副社長、スティーブ・カルリーニ氏は、AI ワークロードはネットワークの観点だけでなく、IT と物理インフラストラクチャに革命をもたらしたと述べています。同氏はメディアとのインタビューで、近年、あらゆる規模の企業が人工知能をサポートするインフラの構築に躍起になっていると語った。 「標準ソケット X86 サーバーは展開されなくなりました。」

カルリーニ氏は、AI データセンターには CPU、GPU、アクセラレータ、DPU があり、データを出し入れするためのアーキテクチャが必要だと述べた。 「各 GPU アクセラレータにはネットワーク ポートがあり、それらはすべて同期して実行されます。」

AI データ センターと従来のデータ センターのもう 1 つの大きな違いは、AI データ センターではワークロードが継続的に実行されており、それによって設計パラメータが変化する点だとCarlini 氏は述べています。 「信じられないくらい暑いです。」

カルリーニ氏は、10,000 個の GPU を詰め込んでサーバー ラックに配置すると物理的な制限が生じ、その中で最も重要なのは熱だと述べた。解決策は、さまざまな冷却オプションとは別に、すべてのコンポーネントを分離することです。 「これを実現する上での障害はネットワークです」。光トランシーバーのコストは劇的に下がり、より長い距離をカバーできるようになりましたが、400ギガのInfiniBandを稼働させるのは安くはありません、と彼は言いました。 「最大の懸念は、各 GPU が独自のネットワーク接続を持つため、ネットワーク コストです。」

低速接続にも適所がある

すべての接続が InfiniBand のような高速ファイバー接続である必要はありません。カルリーニ氏は、AI クラスター向けに設計され、最大 800GB の速度で動作する Broadcom の Jericho3 など、銅線ベースのイノベーションがいくつかあると述べた。 「これは多くの人が待ち望んでいた解決策のようです。」

高速でスケーラブルな接続性と銅線の信頼性および低コストは究極の目標だが、どのデータセンターにも光ファイバー、銅線、無線を含む階層的なソリューションが存在するだろうとカルリーニ氏は述べた。

カルリーニ氏は、取り込むデータは銅線経由でデータセンターに転送できるが、管理機能には WiFi で十分だと述べた。リアルタイムでミッションクリティカルな AI には光接続が必要であり、特にモデルがテキストだけでなくビデオや画像を多く取り込むようになると、それが重要になる、と彼は述べた。

Lightcounting 社の Koslov 氏は、光接続の次のフロンティアはプラグ可能であり、GPU や ASIC と一緒にパッケージ化されるだろうと述べた。 「トランシーバーを接続する心配はありません。電子機器が光を生成します。」

彼は、光学の基本的な利点は消えることはないと述べた。 「他に選択肢はないと思います。」

しかし、コズロフ氏は、限界があるにもかかわらず、銅は改善の道を模索し続けていると述べた。 「光と銅は共存する。」

出典: https://www.fierceelectronics.com/electronics/ai-boosts-optical-connectivity-demand

<<: 

>>:  家庭では人工知能がどのように活用されているのでしょうか?

ブログ    
ブログ    
ブログ    

推薦する

学者がインテリジェンス、モデルとデータAI、デジタルトランスフォーメーションについて語る。このAIイベントには技術的な内容が含まれている。

2022年、学者たちは人工知能の将来の発展をどのように見ているのでしょうか?将来、AI はモデル駆...

人間の仕事が危機に瀕しているか?この時代にいかに目立つかが非常に重要です

序文「データ奴隷」現象は、AI時代の新たなエリート層を生み出したが、同時に、すでに強大な企業をさらに...

LeCun が予測した自己教師モデルはここにあります: 最初のマルチモーダル高性能自己教師アルゴリズム

自己教師あり学習は、さまざまなタスクで階層的な特徴を学習し、実生活で利用可能な膨大なデータをリソース...

2021年は新たなAIを形作る

人工知能が世界を形作っています。コロナウイルスを克服する方法、自動車の自動化、ロボット工学など、世界...

...

...

AI を活用することで、銀行は年間 1 兆ドルの追加収益を得ることができる | マッキンゼーの最新調査レポート

AI を活用して財務管理や投資を行いたいと考えていますか? [[351941]]好むと好まざるとにか...

...

WindowsとOfficeは使いやすく、大型モデルのインテリジェントエージェントはコンピュータを操作するのにとてもクールです

AI アシスタントの将来について語るとき、アイアンマン シリーズに登場する魅力的な AI アシスタン...

神経科学者の探求:機械が意識を獲得する方法

アレックス・ガーランド監督の2015年大ヒット作『エクス・マキナ』では、監督が意図したように、機械の...

今後数年間の AI 求人市場はどのようになるでしょうか?

[[353999]] AI がもたらす自動化の脅威によって仕事が奪われる一方で、AI は新しい職種...

...

人工知能はデータセンター業界にどのような影響を与えるでしょうか?

人工知能(AI)、特にChatGPTなどの生成型AI製品の開発は、過去1年間、主要メディアの見出しを...

FlashAttention v2 は標準の Attention より 5 ~ 9 倍高速です。大規模なモデルで使用されます。

最近、GPT-4(コンテキスト長32k)、MosaicMLのMPT(コンテキスト長65k)、Anth...