この記事は公開アカウント「Reading Core Technique」(ID: AI_Discovery)から転載したものです。 今日の人工知能には大きな問題があります。それは、コストが高すぎることです。最新のコンピューター ビジョン モデル Resnet-152 のトレーニングには約 100 億の浮動小数点演算が必要ですが、これは最新の言語モデルと比べると大したことではありません。
OpenAI の最新の自然言語モデル GPT-3 のトレーニングには 300 テラフロップスかかると推定されており、商用 GPU では少なくとも 500 万ドルのコストがかかります。対照的に、人間の脳は一杯のコーヒーだけで顔を認識し、質問に答え、車を運転することができます。 どうやってやるんですか? 大きな進歩を遂げました。 最初のコンピューターは特定の目的のために作成されました。 1822 年、イギリスの数学者チャールズ・バベッジは多項式関数を計算するための「差分エンジン」を開発しました。 1958 年、コーネル大学のフランク・ローゼンブラット教授は、機械視覚タスクで使用するための単層パーセプトロンの物理的形態である「マーク I」を作成しました。初期の頃は、ハードウェアとアルゴリズムは同じものでした。 ハードウェアとアルゴリズムの統合は、計算処理ユニットと、データとプログラム命令を格納するメモリ ユニットで構成されるチップ設計を特徴とするフォン ノイマン アーキテクチャの登場によって変化しました。このパラダイムシフトにより、あらゆるタスク向けにプログラムできる汎用マシンの構築が可能になります。フォン・ノイマン・アーキテクチャは現代のデジタルコンピュータの青写真となっています。 しかし、ここには矛盾があります。データ集約型プログラムでは、メモリ ユニットとコンピューティング ユニット間の通信が大量に必要となり、計算速度が低下します。この「フォン・ノイマン・ボトルネック」が、人工知能の初期の試みが失敗した理由です。標準的な CPU は、ディープ ニューラル ネットワークのコア計算操作である大規模な行列乗算にはあまり効率的ではありません。既存のハードウェアのボトルネックにより、初期のニューラル ネットワークは技術的に行き詰まり、パフォーマンスが低下しました。 興味深いことに、この問題の解決策は学界からではなく、ゲーム業界から生まれました。 1970 年代にビデオ ゲーム開発を加速するために開発された GPU は、数千のコンピューティング コアにわたってデータ集約型の操作を並列化します。この並列化は、フォン・ノイマン・ボトルネックを解決する効果的な方法です。 GPU は、より深いニューラル ネットワークのトレーニングを可能にし、現代の人工知能技術で使用されるハードウェアとなっています。 ハードウェア抽選 人工知能の分野での研究の成功は運に大きく左右される。 Google の研究者であるサラ・フッカー氏はこれを「ハードウェアくじ」と呼んでいます。初期の AI 研究者は、CPU の速度が遅いというハンディキャップを負っていたため不運でした。 GPU が登場したときにたまたま AI 分野で研究していた研究者は、ハードウェアの宝くじに「当選」したのです。 GPU の効率的な加速機能を活用してニューラル ネットワークをトレーニングすることで、急速な進歩を遂げることができます。 ハードウェアの宝くじの問題は、その分野の全員が勝者になると、新しいことを探求することが難しくなることです。ハードウェアの開発は遅く、チップメーカーは収益が不確実な大規模な先行投資を行う必要がある。安全なアプローチは、現状となっている行列乗算を最適化することです。しかし、長期的には、特定のハードウェアとアルゴリズムの組み合わせに重点を置くことで、選択肢が制限されることになります。 元の質問に戻りましょう。 AI が今日なぜこんなに高価なのでしょうか? その答えは、適切なハードウェアがまだ存在しないからかもしれません。ハードウェア宝くじの存在と商業的インセンティブが相まって、私たちが現在の状況から抜け出すのは経済的に困難になっています。 素晴らしい例としては、コンピューター ビジョンへの斬新なアプローチである、Geoffrey Hinton の Capsule Neural Networks が挙げられます。 Google の研究者である Paul Barham 氏と Michael Isard 氏は、このアプローチは CPU ではうまく機能するが、GPU や TPU ではそれほどうまく機能しないことを発見しました。 その理由は何でしょうか? アクセラレータは、標準的な行列乗算などの最も頻繁に実行される演算に対して最適化されていますが、カプセル畳み込みに対しては最適化が不十分です。彼らの結論(論文のタイトルでもある)は、機械学習システムが行き詰まっているというものです。 AI 研究者は既存のハードウェアを「過剰適合」させる可能性があり、長期的にはこの分野のイノベーションが阻害されることになる。 今後の道 「次のブレークスルーには、根本的に異なるアプローチ、つまりハードウェア、ソフトウェア、アルゴリズムを組み合わせて世界をモデル化することが必要になるかもしれません。」 人間の脳では、記憶と計算は別々の部分ではなく、同じ場所、つまりニューロンで行われます。記憶はニューロンがシナプスを介して接続される方法から生じ、計算はニューロンが発火し、感覚入力に関する情報を伝播する方法から生じます。初期のコンピュータと同様に、ハードウェアとアルゴリズムは同一です。これは、今日の AI の構築方法とは異なります。 GPU と TPU を搭載したディープ ニューラル ネットワークは、現在多くのタスクで優れたパフォーマンスを発揮しますが、長期的なソリューションにはなりません。おそらく、これらは、より広い視点で見ると、ハードウェアとアルゴリズムを組み合わせたアーキテクチャに対する単なるローカル最適ソリューションなのでしょう。 アルゴリズムだけでは不十分であることを認識する事が、前進への第一歩です。次世代の人工知能には、ハードウェアとアルゴリズムの両方における革新が必要です。 GPU が登場する前は、AI 研究は停滞していました。ハードウェアのブレークスルーがなければ、再び停滞に陥ってしまう可能性があります。 |
<<: セキュリティ | 機械学習の「データ汚染」を 1 つの記事で理解する
>>: 将来、人工知能は人間の意思決定に取って代わることができるでしょうか?
[51CTO.com クイック翻訳]今日、プロセス自動化にはさまざまな形があります。また、ツールの...
パンデミック以前は、スマートデバイスは接続できなかった可能性があります。しかし、従業員が自宅からログ...
ロイター通信によると、昨日ジュネーブで開催された「AI for Good」会議で、国連国際電気通信連...
今日は対称暗号化アルゴリズムの重要な問題についてお話ししましょう。暗号化の基本的な概念に精通していな...
データ分析は、多くの組織がクラウド コンピューティング プラットフォーム上で実行する主要なコンピュー...
[[396127]]著者: Ben Dickson はソフトウェア エンジニアであり、テクノロジー...
研究者たちは、特定の昆虫の神経系の機能が、決定論的、確率的、揮発性、不揮発性メモリの機能とどのように...
2021年、国内の新エネルギー乗用車市場はチップ不足や電池原材料価格の高騰など予想外の事態に見舞わ...
ミシュランの星付き料理を作るときと同じように、整理整頓されたキッチンを持つことは重要ですが、選択肢が...
PyTorch または TensorFlow を使用していますか?人々のグループによって答えは異なる...
導入企業にとって、機械学習チームを 0 から 1 まで構築する方法は、多くの企業にとって非常に頭の痛...