大きな AI 問題の解決: AI 操作のエネルギー消費を削減するにはどうすればよいでしょうか?

大きな AI 問題の解決: AI 操作のエネルギー消費を削減するにはどうすればよいでしょうか?

現在、AI分野で画期的な進歩を遂げているディープラーニングモデルの規模が大きくなるほど、エネルギー消費量とコストが増大しています。自然言語処理モデル GPT-3 は典型的な例です。精度と速度の面で人間と競合できるようにするため、このモデルには 1,750 億のパラメータが含まれており、350 GB のメモリを占有し、モデルのトレーニング コストは最大 1,200 万ドルかかります。そしてコストの観点から見ても、それが消費する膨大なエネルギー量を誰もが理解できるはずです。

[[388777]]

マサチューセッツ大学アマースト校の研究者らは、大規模な AI モデルのトレーニングに必要な計算能力は、多くの場合、60 万ポンドを超える二酸化炭素排出量に相当することを発見しました。これは、5 台の乗用車のライフサイクル全体にわたる総排出量に相当します。

さらに悪いことに、これらのモデルは、分析結果を継続的に生成するために、実際の運用環境(つまり、推論段階)でより多くのエネルギーを消費する必要があります。 Nvidia の推定によると、ニューラル ネットワーク モデルの実行コストの 80% ~ 90% は、トレーニング フェーズではなく推論フェーズから発生します。

そのため、AI技術の急速な進歩を維持するためには、環境の持続可能性を実現する方法を見つけなければならないと考える人もいます。しかし、精度や速度をほとんど損なうことなく、大規模なモデルを日常的なワークステーションやサーバーで実行できるサイズに縮小することが可能であることが判明しました。

次に、機械学習モデルが常に大きく肥大化してしまう理由について説明します。

現在、コンピューティング能力は3~4か月ごとに2倍になっている。

10 年以上前、スタンフォード大学の研究者たちは、ビデオ ゲームの複雑なグラフィックスを動かすために使用される GPU と呼ばれる同じプロセッサが、ディープラーニング モデルで極めて高い計算効率を実現できることを発見しました。この発見により、メーカー各社がディープラーニングアプリケーション向けに、より強力な専用ハードウェアの開発を急ぐようになり、軍拡競争が始まった。それに応じて、データ サイエンティストが作成するモデルは、より正確な処理結果をもたらすことを期待して、ますます大規模になっています。二つの力が絡み合って現在の状況を形成しています。

OpenAI の調査では、業界全体が現在そのようなアップグレード サイクルにあることが証明されています。 2012年から2018年の間に、ディープラーニングモデルの計算能力は3〜4か月ごとに2倍になりました。これは、6年間でAIの計算能力が驚異的な30万倍に増加したことを意味します。前述したように、このコンピューティング能力はアルゴリズムのトレーニングに使用できるだけでなく、実稼働環境で分析結果をより速く得るためにも使用できます。しかし、MIT の最終研究は、私たちが考えているよりもずっと早くコンピューティング能力の限界に達する可能性があることを示している。

さらに重要なのは、リソースの制限により、ディープラーニング アルゴリズムがごく少数の組織に限定されるようになったことです。私たちは、ディープラーニングを使用して、医療画像における癌の変化を検出したり、ソーシャルメディア上のヘイトスピーチを自動的に削除したりしたいと考えていますが、より大規模で電力を消費するディープラーニングモデルを導入する余裕はありません。

未来:少ないほど良い

幸いなことに、研究者たちは、よりスマートなアルゴリズムを使用してディープラーニング モデルを縮小し、トレーニング データセットの使用方法を再構築する新しい方法を発見しました。これにより、大規模なモデルを小規模で低性能な運用環境で実行し、ユースケースに応じて必要な結果を継続的に提供できるようになります。

これらのテクノロジーは機械学習を民主化する可能性を秘めており、アルゴリズムをトレーニングして実稼働に導入するための資金やリソースがない組織を支援します。これは、カメラ、車のダッシュボード、スマートフォンなどの小型デバイスを含む、専用の AI ハードウェアに対応できない「エッジ」ユースケースにとって特に重要です。

研究者たちは、ニューラルネットワーク内の不要な接続を削除したり、特定の数学演算の複雑さを軽減したりすることで、モデルのサイズを縮小しようとしてきました。これらの小型で高速なモデルは、大型モデルと同様の精度とパフォーマンスでどこでも実行できます。こうすることで、私たちはもはや極端なコンピューティング能力を必死に追い求める必要がなくなり、環境への深刻なダメージを軽減できると期待できます。実際、モデルサイズの縮小とモデル効率の向上は、ディープラーニングの将来の発展方向となっています。

さまざまなユースケースの新しいデータセットで大規模なモデルを繰り返しトレーニングする場合、もう 1 つの重要な問題が発生します。転移学習は、この問題を解決することを約束する技術です。転移学習では、事前にトレーニングされたモデルを開始点として使用し、限られたデータセットを使用してモデルの知識を新しいタスクに「転送」できるため、最初のモデルを最初から再トレーニングする必要がありません。これは、モデルのトレーニングに必要な計算能力を削減するための重要な手段であるだけでなく、AI の発展によって自然環境にもたらされるエネルギー圧力を大幅に軽減することにもなります。

結局のところ何ですか?

可能な限り、モデルは「スリム化」して計算能力の要件を削減するよう努めるべきであり、またそうしなければなりません。

さらに、モデルによって得られた知識は、毎回ディープラーニングのトレーニング プロセスを最初から開始することなく、リサイクルして再利用できる必要があります。最終的には、パフォーマンスや精度を犠牲にすることなくモデルのサイズと計算オーバーヘッドを削減できるアプローチは、ディープラーニングの力を解き放つ重要な新たな機会となるでしょう。

これにより、誰でも低コストでこれらのアプリケーションを本番環境で実行できるようになり、自然環境への負担が大幅に軽減されます。 「ビッグ AI」が小さくなり始めると、必然的に無数の新たな可能性が生まれるでしょう。私たちはそのような展望に期待を抱いています。

<<:  Java プログラミング スキル - データ構造とアルゴリズム「スレッド バイナリ ツリー」

>>:  APP はユーザーのプライバシーと顔認識生体認証情報を深く掘り下げ、「データ疫病」の到来に注意

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

AI支援プログラミングの現状:AIツールは速度を向上させるが、エラーコードも大幅に増加

ソフトウェア開発の世界では、AI ツールの人気が高まっています。昨年、GitHub は、AI 支援ツ...

人工知能とセキュリティ:繋がる双子

何十年もの間、セキュリティは重要であると考えられてきましたが、いわゆる「コアビジネス」機能に関与した...

この線虫は単純ではありません!脳は高精度に修復され、ダイナミックに前進できる

最高精度の「線虫脳」、ここに登場。この「脳」は、Caenorhabditis elegans 線虫の...

フォークス写真ツール:顔認識システムを密かに汚染

海外メディアの報道によると、インターネットには数十億枚の写真が溢れており、その多くは放置されたアカウ...

美団テイクアウト広告のためのインテリジェントコンピューティングパワーの探求と実践

著者 | 嘉宏、舜慧、郭良 他ディープラーニングの時代では、コンピューティングパワーの需要と消費が増...

ジェフ・ディーンの長文記事の展望: 2021 年以降の機械学習の 5 つの潜在的トレンド

過去数年間、機械学習 (ML) とコンピュータサイエンスの分野では多くの変化が見られました。この長い...

注目の話題レビュー:自動運転タクシーは商用化まであと一歩

自動運転については長い間議論されてきましたが、それが本当に人々の生活に不可欠なものになるのはいつでし...

AIが自ら騙された!生成された写真詐欺はAI識別器の目を楽々と逃れ、マスクのロボットガールフレンドと3メートルの巨人は両方とも「実現」

AI が生成した画像は非常にリアルなので、AI 自身も違いを区別できません。マスク氏とロボットのガ...

...

アルゴリズムを使って従業員を解雇する人工知能は、労働者の新たなリーダーになったのだろうか?

最近、外国メディアのゲームワールドオブザーバーは、ロシアのオンライン決済サービス企業エクソラがアルゴ...

米国エネルギー省、AIによる科学的発見の自動化を支援するために1,600万ドルを投資

技術の複雑さが年々増すにつれ、科学的な革新と発見への扉がより多くの分野に開かれています。現在の問題は...

...

...

新しい報告書が確認:慎重に扱わなければ、人工知能は現実版「ブラックミラー」になる

新しい報告によると、私たちは人工知能革命の瀬戸際に立っている。この革命において、私たちが作り出すテク...