データセンターに AI を導入することを検討している場合は、まず投資すべきハードウェアとインフラストラクチャについて慎重に検討してください。 AIには、機械学習やディープラーニングなどのさまざまなテクノロジーが含まれます。 AI には、将来のパフォーマンスを予測できる分析から、推奨システムや画像認識まで、幅広いビジネス アプリケーションが含まれます。 より多くの大企業がデジタル変革の取り組みの一環として AI を導入するにつれて、AI は拡大し、進化しています。ビジネスに AI が必要な理由を理解することで、AI をサポートするためにどのようなインフラストラクチャを採用するかを決定するのに役立ちます。
GPU搭載サーバーサーバーに GPU を搭載することは、AI にとって最も一般的なインフラストラクチャ アプローチの 1 つになりました。 GPU チップの超並列アーキテクチャを使用すると、AI モデルの処理に関連する大量の浮動小数点演算を高速化できます。 GPU には、広範かつ成熟したソフトウェア エコシステムが存在する傾向があります。たとえば、Nvidia は、開発者がディープラーニングや分析などのさまざまな目的で GPU を使用できるようにするために CUDA ツールキットを開発しました。ただし、GPU は特定のディープラーニング タスクをサポートしますが、必ずしもすべての AI ワークロードをサポートするわけではありません。 「AIと機械学習の分野では、ディープラーニングの範疇に当てはまらないモデルがあり、十分に研究されていない。GPUはニューラルネットワーク型の処理には非常に優れているが、人々が興味深いことをするのに役立つ興味深いアルゴリズムの一部には必ずしも優れているわけではないからだ」とIDCのアナリスト、ジャック・バーノン氏は語った。 データ センターに AI を導入する前に、まずこのテクノロジを採用する理由を検討し、GPU が要件を満たしているかどうかを判断する必要があります。次に、専門家のアドバイスを求めて、ビジネス要件に最適なモデルのタイプを決定し、他にどのようなインフラストラクチャが必要かを理解します。 その他のハードウェアアクセラレータフィールド プログラマブル ゲート アレイ (FPGA) は、基本的には、必要に応じてさまざまな機能を実行するように構成および再構成できるロジック ブロックが詰め込まれたチップです。一方、ASIC では、製造プロセス中にチップにロジック機能が組み込まれます。どちらもハードウェアのパフォーマンスを高速化できます。大規模で明確に定義されたワークロードを持つ企業の場合、ASIC の方が適していますが、FPGA ではより複雑なプログラミングが必要になります。 Google は、ディープラーニング向けに設計された ASIC である TPU を、Google Cloud Platform を通じて顧客に提供しています。これとは別に、Graphcore は AI ワークロード専用に IPU を設計しており、Cambricon はディープラーニングに最適化された命令セットを中心に設計されたプロセッサ チップを提供しています。インテルが買収したHabana Labsは、ディープラーニングのトレーニング部分と推論部分にそれぞれGaudiとGoyaと呼ばれる個別のチップとしてプログラム可能なアクセラレータを提供している。 GPU や同様のタイプのハードウェア アクセラレータは AI で大きな注目を集めていますが、CPU は依然として AI や機械学習の多くの分野で重要な役割を果たしています。たとえば、Intel は AI ワークロードの高速化を支援する機能をサーバー CPU に追加しました。最新の Xeon Scalable ファミリーには、推論に関連する計算の種類を高速化する新しい命令を備えた Intel Deep Learning Boost が搭載されています。つまり、これらの CPU は追加のハードウェアを必要とせずに特定の AI ワークロードを高速化できます。 AI用ストレージAI 対応のインフラストラクチャに関しては、企業はストレージを無視してはなりません。機械学習モデルのトレーニングには大量のサンプルデータが必要であり、パフォーマンスを維持するためにシステムはできるだけ早くデータを受信する必要があります。 「ストレージは非常に大きなものであり、トレーニング プロセス自体には通常、フィードバック ループが含まれます」と Vernon 氏は言います。「したがって、ある段階でモデルを保存し、その上で何らかの処理を実行し、更新してから、何度も呼び戻す必要があります。トレーニングと推論のインフラストラクチャを構築しているほとんどの企業は、通常、非常に迅速に大量の追加ストレージを必要とします。」 HPC インフラストラクチャを備えた企業では、通常、より大容量の層に支えられた高速フラッシュ ストレージ層がすでに存在しています。ほとんどの企業にとって、これは、低コストのストレージを活用して容量を提供し、可能な限り低レイテンシの NVMe SSD を導入することを意味します。 専用AIシステム一部の専用システムは、AI ワークロードに対してより高いパフォーマンスを提供します。 Nvidia の DGX サーバーは同社の GPU をベースにしており、そのアーキテクチャは GPU にデータを供給し続けるように最適化されています。ストレージ ベンダーは Nvidia と提携して、高性能ストレージ アレイと Nvidia DGX システムを組み合わせた検証済みのリファレンス アーキテクチャも提供しています。たとえば、DDN は、AI モデルのトレーニングに使用されるあらゆる種類のアクセス パターンとデータ レイアウトに合わせて Accelerated Any-Scale AI ポートフォリオを最適化しており、NetAp や Pure Storage などのベンダーも同様のストレージ アーキテクチャを提供しています。 Intel は、事前トレーニング済みモデルを最適化して実行するように設計された推論エンジンとして OpenVINO ツールキットを提供しています。プラグイン アーキテクチャを備えているため、さまざまなハードウェア (CPU、GPU、FPGA、またはこれら 3 つの組み合わせ) 上でモデルを実行でき、企業の展開の柔軟性が向上します。 オンデマンド リソースを使用してクラウドで AI モデルを構築およびトレーニングし、トレーニングが完了したら使用を停止することもできます。 |
<<: グラフニューラルネットワーク (GNN) とは何ですか?
Logreduce は、大量のログ データから異常を検出することでデバッグ時間を節約できます。継続的...
アプリケーションの可観測性と AI の信頼、リスク、セキュリティ管理は、ガートナーが 2023 年に...
AI、つまり人工知能の新たな波が到来します。機械学習、ディープラーニング、ニューラルネットワーク、音...
欧州連合の人工知能法(AI法)は、政策立案者が画期的な規制のルールをうまく策定したことで、法律化に向...
ちょうど2年前、大学に入学したときに一度だけ行ったことがあります。その時は、まず入り口の機械で番号を...
執筆者 | 王 瑞平AutoGPT に続いて、GPT ファミリーに新しいメンバーである GPT-En...
[[260878]] 「当社は、個人データへのアクセスを必要としないマルチパーティデータコンピューテ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[258526]]過去7年間、中国のプライベートエクイティ投資市場における人工知能分野への投資額は...
市場には優れた AI ソフトウェア ツールが数多く存在しますが、プロジェクトを実装する際には強力なチ...
いつからか、「人工知能」という言葉はテクノロジー界で徐々に広まり、今では現在のテクノロジー製品や業界...
6月30日のニュースによると、ツール・ド・フランスは世界で最も権威のある自転車レースの一つで、毎年何...
AI と自動化により、企業はさまざまな最適化ソフトウェアを使用して、冷房、暖房、発電を自動的に改善し...