AI サービス プラットフォームのコストと効率の問題は、大手サービス プロバイダーが解決と改善に懸命に取り組んでいる難しい問題です。 具体的には、顧客のニーズを満たしながらシステム全体のリソースの消費を最小限に抑え、ディープラーニングのワークロードの利用率を高めることでコストを削減する方法についてです。 最近、Microsoft Azure 研究チームは協力して、コード名「Singularity」の新しい AI インフラストラクチャ サービスを構築しました。研究者の言葉を借りれば、これは「マイクロソフトの内外で AI の主要な推進力となる、まったく新しい AI プラットフォーム サービス」です。 Singularity サービスは、データ サイエンティストや AI 実践者に、AI 専用に構築された Microsoft の分散インフラストラクチャ サービス上でモデルを構築、拡張、実験、反復する方法を提供するように設計されています。 論文の宛先: 出典:http://arxiv.org/pdf/2202.07848.pdf Singularity サービスを説明する論文の中で、研究者らは次のように述べています。 「Singularity の中核となるのは、ディープラーニングのワークロードを透過的にプリエンプトし、弾力的にスケーリングする、新しいワークロード対応スケジューラです。これにより、正確性やパフォーマンスを損なうことなく、世界中の AI アクセラレータ (GPU、FPGA など) の利用率が向上します。」 Singularity サービスを使用すると、アクティブなワークロードを動的かつ透過的に占有して、異なるノード、クラスター、データ センター、またはリージョンのセットに移行し、正確に実行できることが報告されています。また、特定のタイプのアクセラレータの異なるセットでサイズを変更することもできます (つまり、エラスティック スケーリング)。 Singularity プラットフォーム アーキテクチャ図 ユーザーはコードを変更する必要はなく、柔軟性を制限する可能性のあるカスタム ライブラリを使用する必要もありません。 Microsoft によれば、このアプローチによりディープラーニング ワークロードの信頼性が大幅に向上するという。 この論文の著者には、Azure CTO の Mark Russinovich、2019 年に Azure に移って AI とディープラーニングに取り組むまで Azure Cosmos DB に携わっていたパートナー アーキテクトの Rimma Nehme、技術研究者の Dharma Shukla などが含まれています。 現在使用されている弾性負荷分散メカニズムと比較して、Singularity スケジューラは、各ワーカーを物理 GPU に 1 対 1 でマッピングしたり、多対 1 のマッピングを使用して物理 GPU を仮想化し、ワールド サイズを変更せずに複数のワーカー間でタイム スライスしたりできます。 対照的に、現在の弾性メカニズム スケジューラは、ワールド サイズを 4 分の 1 に縮小して最後のチェックポイントから作業を再開するため、リソースが無駄になります (たとえば、最後のチェックポイント以降の初期化と反復をやり直す必要があります)。 テスト結果は、さまざまなモデルでベースライン レベル (B) と比較して Singularity サービス (DP) を使用することで得られるパフォーマンスの向上を示しています。 透過的な弾性負荷スケジューリングのパフォーマンスに関しては、Singularity は平均 7% の優位性を達成しました。 研究者らは、Singularity はディープラーニングのワークロードのスケジューリングにおいて大きな進歩を遂げ、弾力性などのニッチな機能を主流の機能に変え、これに基づいてディープラーニングのワークロードのスケジューリングを実現したと述べました。 Singularity により、これまでにないレベルのワークロードの互換性が実現します。ワークロードは、グローバルに分散されたフリートのどこにあってもアイドル状態のリソースを活用できます。 Singularity はシンプルなユーザー エクスペリエンスを提供します。ユーザーはチェックポイントや弾性負荷の問題を心配することなく、機械学習タスク自体に集中するだけで済みます。これらのインフラストラクチャの最適化は、ユーザーに対して完全に透過的です。 4年前の古いプロジェクトが「生まれ変わる」?ZD Net は、Singularity が Microsoft が以前に開始した Brainwave プロジェクトの商業化の次の段階になる可能性があると報じました。 マイクロソフトは以前、FPGA(フィールドプログラマブルゲートアレイ)を顧客へのサービスとして提供する計画について説明していた。 2018年、マイクロソフトはAzureで高速なAI処理とコンピューティング機能を提供することを目的とした「Brainwave」プロジェクトを発表しました。 当時、マイクロソフトは、AI ワークロード向けに顧客に提供する FPGA 処理プラットフォームである Brainwave を搭載した、クラウド上の Azure Machine Learning ハードウェア アクセラレーション モデルのプレビューを提供していました。 Brainwave は、高性能分散システム アーキテクチャ、カスタマイズ可能なチップ (FPGA) 上で実行されるハードウェア ディープ ニューラル ネットワーク エンジン、およびトレーニング済みモデルを展開するためのコンパイラで構成されています。 実際、マイクロソフトが自社のプラットフォーム上で「Singularity」という言葉を使用したのは今回が初めてではない。 Microsoft は以前、完全にマネージド コードで開発されたマイクロカーネル オペレーティング システムと、関連するツールおよびリソース ライブラリのセットの名前として Singularity を使用していました。 Singularity は最終的に、Barrelfish、Helios、Midori、Drawbridge など、Microsoft の他のいくつかのクラウド プラットフォームおよびオペレーティング システム プロジェクトを生み出したり、影響を与えたりしました。 AIコンピューティングプラットフォーム、大手メーカーが競争してレイアウトマイクロソフトが人工知能のための高性能コンピューティングおよび高速コンピューティング プラットフォームの構築をかなり前から計画し始めていることは注目に値します。 2019年、マイクロソフトはOpenAIに10億ドルを投資し、1年後にはOpenAIと提携して特にOpenAIのために、公開記録で5番目に強力なスーパーコンピューターを構築したと発表しました。 MicrosoftがOpenAIと共同で構築したAIスーパーコンピューターはOpenAI専用のものですが、Microsoftは以前から、Azure AIサービスやGitHubを通じて、より多くのユーザーに大規模なAIモデルやトレーニング最適化ツールを提供していく予定だと述べてきました。 Microsoft は、専用のスーパーコンピューターを必要としない顧客向けに、Azure AI 傘下でさまざまな高速コンピューティング サービスも提供しています。 2021 年 11 月、Microsoft は Azure で 80GB の NVIDIA A100 GPU を使用して AI スーパーコンピューターのラインナップを拡大すると発表しました。 AI スーパーコンピューティング機能を社内および顧客向けに提供しようとしているテクノロジー企業は Microsoft だけではありません。 Meta も同じことを行っており、予期せぬことが起こらない限り、Meta はこの作業をメタバースを解き放つ鍵と位置付けています。 |
>>: ニューラルネットワークが大きいほど良いのはなぜですか? NeurIPSの論文が証明:堅牢性は一般化の基礎である
2019年2月、ポーランド政府は銀行法に改正を加え、信用判定に否定的な結果が出た場合に顧客に説明を求...
これから起こることは、やがて起こるでしょう! OpenAIが開発者会議で正式発表した「GPTストア」...
[[416282]]画像ソース: https://pixabay.com/images/id-390...
[[399115]]事前トレーニングにより、下流のタスクのパフォーマンスが大幅に向上することが示され...
現在、人工知能は生産性の向上を可能にし、さまざまな産業のインテリジェント化と新旧の運動エネルギーの変...
MySQL は広く使用されているリレーショナル データベース管理システムです。データベース設計では...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
OpenAI の侵害を調査し、AI 企業 SSC のハッキングの可能性とその影響の可能性を推測します...
国内の大型モデルに新たなプレーヤーが登場しました。 670億のパラメータを持つDeepSeek。中国...