ニューラルコンピュータAIモデルのブレークスルー!トレーニング時間は1秒あたり120万フレームに達し、新記録を樹立

ニューラルコンピュータAIモデルのブレークスルー!トレーニング時間は1秒あたり120万フレームに達し、新記録を樹立

[[326502]]

今週、IBMは、同社のニューラル・コンピュータ・システムが1秒あたり120万フレームのトレーニング時間を達成し、新記録を樹立したと主張した。 IBM は、最先端のテクノロジーに匹敵する AI モデル トレーニングのブレークスルーを達成しました。ネットユーザーからは信じられないという声が上がった。

IBMは今年初めに発表した論文で、ニューラル・コンピュータについて詳しく説明しました。これは、新興の AI アルゴリズムと計算神経科学の研究開発用に設計された再構成可能な並列処理システムです。

今週、同社はニューラルコンピューターの最初のアプリケーションであるディープニューロエボリューションシステムを実演した。このシステムは、Atari 2600 ハードウェア実装、画像前処理、AI アルゴリズムを最適化されたパイプラインに組み合わせています。

実験で報告された結果は最先端のものと匹敵するが、さらに重要なのは、IBM がシステムが 1 秒あたり 120 万フレームのトレーニング時間を達成し、新記録を樹立したと主張していることである。

ネットユーザーたちは「信じられない!」と叫んだ。

ニューラルコンピュータは、AIコンピューティングの軍拡競争における警告信号のようなものです。

OpenAIが公開した分析によると、最大規模のAIトレーニング実行で使用されるコンピューティング量は2012年から2018年にかけて30万倍に増加し、トレーニング時間は3.5か月で倍増し、ムーアの法則のペースをはるかに上回っています。

AlexNet から AlphaGo Zero へ: 計算量は 30 万倍

まずはIBMのニューラルコンピュータについて学びましょう

IBM ニューラル・コンピュータ

IBM のニューラル コンピュータは、IBM の長期戦略パートナーである Xilinx のフィールド プログラマブル ゲート アレイ (FPGA、製造後に構成できるように設計された集積回路) である 432 個のノード (16 モジュール カードごとに 27 個のノード) で構成されています。

IBMのニューラルコンピュータはモジュールカードあたり27個のノードを持つ

各ノードには、Xilinx Zynq システムオンチップ (同じチップ上に FPGA とペアになったデュアルコア ARM A9 プロセッサ) と 1 GB の専用 RAM チップが搭載されています。

ノードは 3D グリッド トポロジーで配置され、シリコン ウェーハまたはチップを完全に貫通するシリコン貫通ビアと呼ばれる電気接続によって垂直に相互接続されます。

ノード番号は3Dメッシュトポロジーで確認できます

ネットワークに関しては、FPGA は複数の異なる通信チャネルを確立するために、モジュール カード間の物理的な通信へのアクセスを提供します。

理論上は、1 枚のカードで最大 432GB/秒の転送速度をサポートでき、ニューラル コンピューターのネットワーク インターフェイスは自動的に調整され、特定のプログラムに合わせて徐々に最適化されます。

「私たちのシステムは、各ノードがアプリケーション固有のプロセッサ オフロードを可能にするという点でユニークです。これは、私たちが知る限り、あらゆる規模の並列コンピュータでは利用できない機能です」と、ニューラル コンピュータ フレームワークの概要を説明する論文の共著者は書いています。「パフォーマンスが重要なステップのほとんどは、ARM プロセッサのサポートにより、FPGA でオフロードおよび最適化されます。」

ニューラル コンピューターについてある程度わかったところで、IBM はニューラル コンピューターの最初のアプリケーション デモンストレーションで、どのようにして 120 万フレーム/秒という記録破りのトレーニング時間を達成したのでしょうか。

[[326505]]

調べてみましょう

Atari ゲームで AI をテストする

ビデオ ゲームをテストに使用することは、AI および機械学習の研究に最適なプラットフォームです。

これらはテストにすぐに利用できるだけでなく、大規模に実行しても安価です。

例えば、強化学習などの特定の分野では、報酬を得るために、AIは環境と相互作用することで最適な行動を学習し、ゲームのスコアが最も直接的な報酬となります。

ゲーム分野で開発された AI アルゴリズムは、タンパク質の折り畳み予測研究など、より実用的な用途に有望であることが示されています。 IBM ニューロコンピュータのテスト結果が再現されれば、このシステムを使用して AI アルゴリズムの開発を加速できる可能性があります。

研究者らはニューラルコンピューターのカード1枚につき26個のノードを使用し、合計416個のノードを使用した。

Atari ゲーム アプリケーションの 2 つのインスタンスが 416 個の FPGA ノードそれぞれで実行され、各インスタンスが並列に実行されて最大 832 個のノードまで拡張されます。

各インスタンスは、指定された Atari 2600 ゲームからフレームを抽出し、画像の前処理を実行し、機械学習モデルを通じて画像を実行し、ゲーム内のアクションを実行します。

ディープ ニューラル ネットワークを使用して FPGA 上でゲームをトレーニングするスクリーンショット

最高のパフォーマンスを実現するために、研究チームは Atari 2600 のエミュレーションを避け、代わりに FPGA を使用してコンソールの機能をはるかに高い周波数で実装することを選択しました。

彼らは、現代のハードウェアを使用してコンソールとアーケードマシンを再現することを目的としたオープンソースの MiSTer プロジェクトのフレームワークを採用し、Atari 2600 のプロセッサクロック周波数を 3.58 MHz から 150 MHz に上げ、1 秒あたり約 2,514 フレームを生成しました。

画像の前処理ステップでは、IBM のアプリケーションはフレームをカラーからグレーに変換し、ちらつきを除去し、画像をより小さい解像度に再スケーリングしてから、フレームを 4 つのグループに積み重ねます。

次に、ゲーム環境を推測する AI モデルと、AI モデルによって予測された最大報酬を識別して次のフレームのアクションを選択するサブモジュールに渡されます。

IBM の研究者は 5 回の実験を通じて、ニューラル コンピューター上で 59 個の Atari 2600 ゲームを実行しました。

結果によると、このアプローチは他の強化学習技術ほどデータ効率が良くなく、合計 60 億のゲーム フレームが必要となり、Montezuma’s Revenge や Pitfall などの難易度の高い探索型ゲームでは失敗しました。

Deep Qネットワークは59試合中30試合に勝利し、トレーニングに10日かかりましたが、IBMチームはトレーニングにわずか6分しかかかりませんでした(トレーニングフレーム2億枚)。

59 の Atari 2600 ゲームの 60 億のトレーニング フレームを備えたニューラル コンピューターで実行し、2 桁も短い時間 (2 時間 30 分) でトレーニングしながら、36 のゲームで Deep Q ネットワークを上回りました。

<<:  企業はビッグデータ アルゴリズムを使用して効果的なリンクを構築できますか?

>>:  ついにデータサイエンス、機械学習、人工知能を説明する人が現れる

ブログ    

推薦する

モビリティの未来:スマート、持続可能、効率的

[[348989]] COVID-19のロックダウンの緩和により多くの社会的要因が浮き彫りになりまし...

...

ネイチャー誌は「同じ原稿の複数投稿」を認めるべき時が来たという記事を掲載した。

「私たちの論文を溜め込むのはやめてください」ネイチャー誌のコラムに学者の投稿が掲載される。記事は、...

大学は人工知能人材育成に力を入れており、「ロボット工学」専攻が人気に

[[225297]]毎年恒例の「大学入試シーズン」が到来し、受験生や保護者にとって、受験願書の記入は...

顔認識防止技術の登場により、顔をスキャンするのはまだ安全でしょうか?

現在、より成熟し、広く使用されているインテリジェント テクノロジーにはどのようなものがありますか? ...

...

データセンター: クラウドと AI 導入の鍵となる要素

2023 年の新規建設の大幅な増加は、データ センターの空室率が史上最低水準にある重要な時期に起こり...

...

ヴィンセントビデオの「ダークホース」モーフスタジオが登場: 使いやすく、1080P、7秒の長さ、無料

「光るクラゲがゆっくりと海から浮上し、夜空に輝く星座になります」と、Morph Studio で見た...

銀行における会話型 AI – 企業が犯しがちな 3 つの間違い

金融サービス業界は、特定の金融プロセスに不可欠なレガシー機器やシステムを使用しているため、他の業界に...

...

...

Amazon SageMaker について

Amazon SageMaker は、開発者やデータサイエンティストがあらゆる規模の機械学習モデルを...

Cloudsimを使用して多次元QoSに基づくリソーススケジューリングアルゴリズムを実装する

Cloudsim は、グリッドコンピューティングシミュレーションソフトウェア Gridsim のプロ...

今日の人工知能は単なる「狭義のAI」なのでしょうか?

1956 年、若い数学助教授ジョン・マッカーシーが率いる科学者グループがニューハンプシャー州のダー...