データセンターに AI を導入することを検討している場合は、まず投資すべきハードウェアとインフラストラクチャについて慎重に検討してください。 AIには、機械学習やディープラーニングなどのさまざまなテクノロジーが含まれます。 AI には、将来のパフォーマンスを予測できる分析から、推奨システムや画像認識まで、幅広いビジネス アプリケーションが含まれます。 より多くの大企業がデジタル変革の取り組みの一環として AI を導入するにつれて、AI は拡大し、進化しています。ビジネスに AI が必要な理由を理解することで、AI をサポートするためにどのようなインフラストラクチャを採用するかを決定するのに役立ちます。
GPU搭載サーバーサーバーに GPU を搭載することは、AI にとって最も一般的なインフラストラクチャ アプローチの 1 つになりました。 GPU チップの超並列アーキテクチャを使用すると、AI モデルの処理に関連する大量の浮動小数点演算を高速化できます。 GPU には、広範かつ成熟したソフトウェア エコシステムが存在する傾向があります。たとえば、Nvidia は、開発者がディープラーニングや分析などのさまざまな目的で GPU を使用できるようにするために CUDA ツールキットを開発しました。ただし、GPU は特定のディープラーニング タスクをサポートしますが、必ずしもすべての AI ワークロードをサポートするわけではありません。 「AIと機械学習の分野では、ディープラーニングの範疇に当てはまらないモデルがあり、十分に研究されていない。GPUはニューラルネットワーク型の処理には非常に優れているが、人々が興味深いことをするのに役立つ興味深いアルゴリズムの一部には必ずしも優れているわけではないからだ」とIDCのアナリスト、ジャック・バーノン氏は語った。 データ センターに AI を導入する前に、まずこのテクノロジを採用する理由を検討し、GPU が要件を満たしているかどうかを判断する必要があります。次に、専門家のアドバイスを求めて、ビジネス要件に最適なモデルのタイプを決定し、他にどのようなインフラストラクチャが必要かを理解します。 その他のハードウェアアクセラレータフィールド プログラマブル ゲート アレイ (FPGA) は、基本的には、必要に応じてさまざまな機能を実行するように構成および再構成できるロジック ブロックが詰め込まれたチップです。一方、ASIC では、製造プロセス中にチップにロジック機能が組み込まれます。どちらもハードウェアのパフォーマンスを高速化できます。大規模で明確に定義されたワークロードを持つ企業の場合、ASIC の方が適していますが、FPGA ではより複雑なプログラミングが必要になります。 Google は、ディープラーニング向けに設計された ASIC である TPU を、Google Cloud Platform を通じて顧客に提供しています。これとは別に、Graphcore は AI ワークロード専用に IPU を設計しており、Cambricon はディープラーニングに最適化された命令セットを中心に設計されたプロセッサ チップを提供しています。インテルが買収したHabana Labsは、ディープラーニングのトレーニング部分と推論部分にそれぞれGaudiとGoyaと呼ばれる個別のチップとしてプログラム可能なアクセラレータを提供している。 GPU や同様のタイプのハードウェア アクセラレータは AI で大きな注目を集めていますが、CPU は依然として AI や機械学習の多くの分野で重要な役割を果たしています。たとえば、Intel は AI ワークロードの高速化を支援する機能をサーバー CPU に追加しました。最新の Xeon Scalable ファミリーには、推論に関連する計算の種類を高速化する新しい命令を備えた Intel Deep Learning Boost が搭載されています。つまり、これらの CPU は追加のハードウェアを必要とせずに特定の AI ワークロードを高速化できます。 AI用ストレージAI 対応のインフラストラクチャに関しては、企業はストレージを無視してはなりません。機械学習モデルのトレーニングには大量のサンプルデータが必要であり、パフォーマンスを維持するためにシステムはできるだけ早くデータを受信する必要があります。 「ストレージは非常に大きなものであり、トレーニング プロセス自体には通常、フィードバック ループが含まれます」と Vernon 氏は言います。「したがって、ある段階でモデルを保存し、その上で何らかの処理を実行し、更新してから、何度も呼び戻す必要があります。トレーニングと推論のインフラストラクチャを構築しているほとんどの企業は、通常、非常に迅速に大量の追加ストレージを必要とします。」 HPC インフラストラクチャを備えた企業では、通常、より大容量の層に支えられた高速フラッシュ ストレージ層がすでに存在しています。ほとんどの企業にとって、これは、低コストのストレージを活用して容量を提供し、可能な限り低レイテンシの NVMe SSD を導入することを意味します。 専用AIシステム一部の専用システムは、AI ワークロードに対してより高いパフォーマンスを提供します。 Nvidia の DGX サーバーは同社の GPU をベースにしており、そのアーキテクチャは GPU にデータを供給し続けるように最適化されています。ストレージ ベンダーは Nvidia と提携して、高性能ストレージ アレイと Nvidia DGX システムを組み合わせた検証済みのリファレンス アーキテクチャも提供しています。たとえば、DDN は、AI モデルのトレーニングに使用されるあらゆる種類のアクセス パターンとデータ レイアウトに合わせて Accelerated Any-Scale AI ポートフォリオを最適化しており、NetAp や Pure Storage などのベンダーも同様のストレージ アーキテクチャを提供しています。 Intel は、事前トレーニング済みモデルを最適化して実行するように設計された推論エンジンとして OpenVINO ツールキットを提供しています。プラグイン アーキテクチャを備えているため、さまざまなハードウェア (CPU、GPU、FPGA、またはこれら 3 つの組み合わせ) 上でモデルを実行でき、企業の展開の柔軟性が向上します。 オンデマンド リソースを使用してクラウドで AI モデルを構築およびトレーニングし、トレーニングが完了したら使用を停止することもできます。 |
<<: グラフニューラルネットワーク (GNN) とは何ですか?
ネイト・ロシディ翻訳者 | ブガッティレビュー | Chonglou制作:51CTO テクノロジース...
スタンフォード大学の中国人博士が休学して起業したところ、AI界でたちまち人気に!この新製品はAIによ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
6月25日、ジーナ・ライモンド米国商務長官は、国立標準技術研究所(NIST)が人工知能(AI)に関...
研究者たちは人工知能を使って、サンディエゴ郡の地元の高齢者住宅コミュニティの住民の孤独感を正確に予測...
アプリケーションによって処理されるデータの量は増加し続けています。データの増加は、ストレージ機能の拡...
データ構造とアルゴリズムを学習していたとき、ソートアルゴリズムをアニメーションで表現して、理解しやす...
最後に、Google が昨年 12 月に約束した Gemini Ultra はリリースされるのでしょ...
写真ChatGPT は非常に人気が高まり、人間の働き方や考え方さえも変え始めています。それを十分に理...
[[418444]]現在、新世代の人工知能に代表される科学・産業革命が起こりつつあります。デジタル化...
統計モデルやその他のアルゴリズムに加えて、回帰は機械学習を正常に動作させるための重要な要素です。回帰...
手術室で外科医をサポートするロボットや、X 線や MRI 画像の評価を支援するソフトウェアが登場して...
海外メディアの報道によると、人工知能によるニュースのパーソナライゼーションの時代では、従来の報道機関...