あなたのビジネスに必要な AI 処理ユニットはどれですか?

あなたのビジネスに必要な AI 処理ユニットはどれですか?

データセンターに AI を導入することを検討している場合は、まず投資すべきハードウェアとインフラストラクチャについて慎重に検討してください。

AIには、機械学習やディープラーニングなどのさまざまなテクノロジーが含まれます。 AI には、将来のパフォーマンスを予測できる分析から、推奨システムや画像認識まで、幅広いビジネス アプリケーションが含まれます。

より多くの大企業がデジタル変革の取り組みの一環として AI を導入するにつれて、AI は拡大し、進化しています。ビジネスに AI が必要な理由を理解することで、AI をサポートするためにどのようなインフラストラクチャを採用するかを決定するのに役立ちます。

[[431089]]

GPU搭載サーバー

サーバーに GPU を搭載することは、AI にとって最も一般的なインフラストラクチャ アプローチの 1 つになりました。 GPU チップの超並列アーキテクチャを使用すると、AI モデルの処理に関連する大量の浮動小数点演算を高速化できます。

GPU には、広範かつ成熟したソフトウェア エコシステムが存在する傾向があります。たとえば、Nvidia は、開発者がディープラーニングや分析などのさまざまな目的で GPU を使用できるようにするために CUDA ツールキットを開発しました。ただし、GPU は特定のディープラーニング タスクをサポートしますが、必ずしもすべての AI ワークロードをサポートするわけではありません。

「AIと機械学習の分野では、ディープラーニングの範疇に当てはまらないモデルがあり、十分に研究されていない。GPUはニューラルネットワーク型の処理には非常に優れているが、人々が興味深いことをするのに役立つ興味深いアルゴリズムの一部には必ずしも優れているわけではないからだ」とIDCのアナリスト、ジャック・バーノン氏は語った。

データ センターに AI を導入する前に、まずこのテクノロジを採用する理由を検討し、GPU が要件を満たしているかどうかを判断する必要があります。次に、専門家のアドバイスを求めて、ビジネス要件に最適なモデルのタイプを決定し、他にどのようなインフラストラクチャが必要かを理解します。

その他のハードウェアアクセラレータ

フィールド プログラマブル ゲート アレイ (FPGA) は、基本的には、必要に応じてさまざまな機能を実行するように構成および再構成できるロジック ブロックが詰め込まれたチップです。一方、ASIC では、製造プロセス中にチップにロジック機能が組み込まれます。どちらもハードウェアのパフォーマンスを高速化できます。大規模で明確に定義されたワークロードを持つ企業の場合、ASIC の方が適していますが、FPGA ではより複雑なプログラミングが必要になります。

Google は、ディープラーニング向けに設計された ASIC である TPU を、Google Cloud Platform を通じて顧客に提供しています。これとは別に、Graphcore は AI ワークロード専用に IPU を設計しており、Cambricon はディープラーニングに最適化された命令セットを中心に設計されたプロセッサ チップを提供しています。インテルが買収したHabana Labsは、ディープラーニングのトレーニング部分と推論部分にそれぞれGaudiとGoyaと呼ばれる個別のチップとしてプログラム可能なアクセラレータを提供している。

GPU や同様のタイプのハードウェア アクセラレータは AI で大きな注目を集めていますが、CPU は依然として AI や機械学習の多くの分野で重要な役割を果たしています。たとえば、Intel は AI ワークロードの高速化を支援する機能をサーバー CPU に追加しました。最新の Xeon Scalable ファミリーには、推論に関連する計算の種類を高速化する新しい命令を備えた Intel Deep Learning Boost が搭載されています。つまり、これらの CPU は追加のハードウェアを必要とせずに特定の AI ワークロードを高速化できます。

AI用ストレージ

AI 対応のインフラストラクチャに関しては、企業はストレージを無視してはなりません。機械学習モデルのトレーニングには大量のサンプルデータが必要であり、パフォーマンスを維持するためにシステムはできるだけ早くデータを受信する必要があります。

「ストレージは非常に大きなものであり、トレーニング プロセス自体には通常、フィードバック ループが含まれます」と Vernon 氏は言います。「したがって、ある段階でモデルを保存し、その上で何らかの処理を実行し、更新してから、何度も呼び戻す必要があります。トレーニングと推論のインフラストラクチャを構築しているほとんどの企業は、通常、非常に迅速に大量の追加ストレージを必要とします。」

HPC インフラストラクチャを備えた企業では、通常、より大容量の層に支えられた高速フラッシュ ストレージ層がすでに存在しています。ほとんどの企業にとって、これは、低コストのストレージを活用して容量を提供し、可能な限り低レイテンシの NVMe SSD を導入することを意味します。

専用AIシステム

一部の専用システムは、AI ワークロードに対してより高いパフォーマンスを提供します。 Nvidia の DGX サーバーは同社の GPU をベースにしており、そのアーキテクチャは GPU にデータを供給し続けるように最適化されています。ストレージ ベンダーは Nvidia と提携して、高性能ストレージ アレイと Nvidia DGX システムを組み合わせた検証済みのリファレンス アーキテクチャも提供しています。たとえば、DDN は、AI モデルのトレーニングに使用されるあらゆる種類のアクセス パターンとデータ レイアウトに合わせて Accelerated Any-Scale AI ポートフォリオを最適化しており、NetAp や Pure Storage などのベンダーも同様のストレージ アーキテクチャを提供しています。

Intel は、事前トレーニング済みモデルを最適化して実行するように設計された推論エンジンとして OpenVINO ツールキットを提供しています。プラグイン アーキテクチャを備えているため、さまざまなハードウェア (CPU、GPU、FPGA、またはこれら 3 つの組み合わせ) 上でモデルを実行でき、企業の展開の柔軟性が向上します。

オンデマンド リソースを使用してクラウドで AI モデルを構築およびトレーニングし、トレーニングが完了したら使用を停止することもできます。

<<:  グラフニューラルネットワーク (GNN) とは何ですか?

>>:  毎日のアルゴリズム: 上位 K 個の高頻度要素

ブログ    
ブログ    

推薦する

この記事では人工知能とは何かを徹底的に解説します!

人工知能 (AI) は、自然科学のさまざまな分野を網羅しており、主に特定の種類の知的な人間の活動をモ...

デジタル農村開発が加速、AI、5G、IoTなどがチャンスをもたらす

インターネットやモバイルインターネット技術の急速な普及と「新インフラ」の発展は、農業と農村の近代化に...

...

Sora では 1 分間のビデオを生成するのに 1 時間以上かかります。これによりユーザー エクスペリエンスにどのような変化がもたらされるのでしょうか?

人工知能に対する人々の熱意が高まり続けるにつれ、新しく発売された製品は世界中の人々から大きな注目を集...

Pythonで簡単な顔認識を実装すると、私はこの星にとても似ていることが判明しました

近年、人工知能の人気が急上昇しており、画像認識、音声認識、機械翻訳、自動運転車など、AI の能力と威...

...

中国のLMM体格に適したベンチマークであるCMMMUがここにあります:30以上のサブ分野、12Kの専門家レベルの質問

近年、大規模マルチモーダルモデル (LMM) の機能が向上したため、LMM のパフォーマンスを評価す...

Vision Pro が 50 億ドルで売却され、ザッカーバーグは大喜び! Metaは500億ドルを燃やし、VR復活の希望がここにある

海外メディアの報道によると、2月2日の正式発売前に、AppleのVision Proはすでに20万台...

デジタル変革の本質、道筋、段階、課題を1つの記事で解説

01エンタープライズデジタルトランスフォーメーションの本質デジタル化により、人間が暮らす現実世界と仮...

春節祭でロボットが書道を行う。書道家は職を失うことになるのか?

毎年、春節の祝祭舞台ではさまざまな「ブラックテクノロジー」が必ず使われています。2021年の丑年春節...

人工知能アルゴリズムを採用したGoogle検索は恐ろしい

今日まで、PageRank アルゴリズムは、ユーザーが望むものを迅速に正確に提供するための Goog...

...