ディープラーニング最適化アルゴリズムがどのように機能するかを知りたいですか?クリックしてください!急いで

ディープラーニング最適化アルゴリズムがどのように機能するかを知りたいですか?クリックしてください!急いで

ディープラーニングは高度に反復的なプロセスです。最適な組み合わせを決定するには、ハイパーパラメータのさまざまな組み合わせを試す必要があります。したがって、コストを犠牲にすることなく、ディープラーニング モデルをより短時間でトレーニングする必要があります。この記事では、ディープラーニングで使用される一般的な最適化アルゴリズムの背後にある数学について説明します。

[[274188]]

最適化アルゴリズム

アルゴリズム f(x) では、最適化アルゴリズムによって f(x) の最大値または最小値を取得できます。ディープラーニングでは、コスト関数 J を最適化することでニューラル ネットワークをトレーニングできます。コスト関数は次のとおりです。

コスト関数 J の値は、予測値 y' と実際の値 y の間の損失 L の平均です。ネットワークの重み W とバイアス b を使用して、順方向伝播プロセス中に y’ 値が得られます。トレーニング可能なパラメータ W と b の値は、コスト関数 J の値を最小化するために最適化アルゴリズムを通じて更新されます。

勾配降下法

重み行列 W はランダムに初期化されます。勾配降下法を使用すると、コスト関数 J を最小化し、最適な重み行列 W とバイアス b を取得できます。勾配降下法は、関数の最小値を見つけるための一次反復最適化アルゴリズムです。勾配降下法を使用してコストを最小化するためにコスト関数 J を適用します。数学的には次のように定義できます。

最初の式は重み行列 W の変化を表し、2 番目の式はバイアス b の変化を表します。これら 2 つの値の変化は、重み行列 W とバイアス b に対する学習率とコスト J の導関数によって決まります。コスト関数 J が最小化されるまで、W と b を繰り返し更新します。次に、この記事では、次の図を通じて勾配降下法の原理を説明します。

  • ケース 1. W の初期値が、グローバル最小値に達したときの値よりも小さいと仮定します。この時点での傾き J の W に対する偏微分は負なので、最急降下法の式に従って重みが増加します。
  • ケース 2. W の初期値が、グローバル最小値に達したときの値よりも大きいと仮定します。この時点での傾き J の W に対する偏微分は正なので、重みは最急降下法の式に従って減少します。

したがって、W と b は両方とも最適値を達成し、コスト関数 J の値は最小化されます。

上記は、最適化アルゴリズムとして勾配降下法を使用する基本的な戦略を示しています。

ミニバッチ勾配降下法

勾配降下法の欠点の 1 つは、トレーニング データが完成した後でのみパラメータを更新できることです。トレーニング データが大きすぎてコンピューターのメモリに収まらない場合、これは課題となります。ミニバッチ勾配降下法は、上記の勾配降下問題を解決するための偶発的手法です。

ミニバッチ勾配降下法では、ユースケースに応じて、トレーニング データ全体を 16、32、64 などのサイズのミニバッチに分散できます。これらのミニバッチは、ネットワークを反復的にトレーニングするために使用されます。小バッチを使用すると、次の 2 つの利点があります。

  1. 最初のいくつかのトレーニングケースでは、最初のミニバッチを反復するだけでトレーニングを開始できます。
  2. メモリに収まらない大量のデータがある場合は、ニューラル ネットワークをトレーニングできます。

これで、batch_size が新しいモデルのハイパーパラメータになります。

  1. batch_size = トレーニング例の数の場合、バッチ勾配降下法と呼ばれます。この時点で、学習を開始する前にデータセット全体を走査する必要があるという問題があります。
  2. batch_size = 1 の場合、確率的勾配降下法と呼ばれます。ベクトル化が十分に活用されていないため、トレーニングは非常に遅くなります。
  3. したがって、通常は 64 または 128 または 256 または 512 が選択されます。ただし、これはユースケースとシステム メモリによって異なります。つまり、小さなバッチ サイズがシステム メモリに収まることを確認する必要があります。

上記は、最適化アルゴリズムとしてミニバッチ勾配降下法を使用する基本的な戦略を示しています。

勢い

運動量勾配降下法は、コスト関数 J の最適化を高速化できる高度な最適化アルゴリズムです。運動量勾配降下法では、移動平均を使用してニューラル ネットワークのトレーニング可能なパラメータを更新します。

移動平均は、値のセット全体ではなく、n 個の連続する値に対して計算された平均です。数学的には、次のようになります。

ここで、A[i]はi番目のデータポイントにおけるX[i]値の移動平均を表します。パラメーター β は、平均を計算する値 n を決定します。たとえば、β = 0.9 の場合、移動平均は 10 個の連続した値を使用して計算され、β = 0.99 の場合、移動平均は 100 個の連続した値を使用して計算されます。一般に、n の値は次のように近似できます。

下のグラフは移動平均がどのように機能するかを示しています。 β値が大きくなるとnも大きくなり、グラフは右にシフトします。これは初期段階ではこれらの値が大きくなるためです。ただし、β が減少すると n も減少し、X を正しくモデル化できるようになります。したがって、良好な移動平均を得るためには適切な β 値を見つける必要があります。ほとんどの場合、β = 0.9 が適切であることがわかります。

移動平均とは何かがわかったところで、モメンタム アルゴリズムにおけるその応用を理解してみましょう。ニューラル ネットワークをトレーニングする際の目標は、コスト関数 J を最適化してその値を最小化することです。従来の勾配降下法オプティマイザーは青いパスをたどりますが、モメンタムオプティマイザーは緑のパスをたどって最小値 (赤) に到達します。

勾配降下法のパスには、運動量に比べてステップ数が多すぎます。これは、勾配降下法では y 軸上では変動が大きいものの、x 軸上では変動がほとんどなく、最小値に近いためです。正しい解決策は、y 軸の動きを減衰させることで変動を減らすことです。ここで移動平均が役に立ちます。

青いパスを見ると、y 軸上の動きが一連の正と負の変化であることがわかります。ほぼゼロの動きに対して加重平均を適用すると、y 軸に変動が現れます。同様の直感は x 軸の動きにも当てはまります。これにより、パス上の変動が減少し、最終的にはトレーニングの反復回数が減少するにつれて、ニューラル ネットワークはより短い時間で最小値に到達します。この目的のために、重み dW とバイアス db の導関数の加重平均を追跡するための 2 つの新しい変数 VdW と Vdb が導入されました。

パラメータ更新方法のみが変更されたため、ミニバッチアプローチとモーメントオプティマイザーも使用できることに注意してください。

上記は、最適化アルゴリズムとしてモメンタムを使用する基本的な戦略を示しています。

RMSプロップ

RMS Prop は Root Mean Square Propagation の略で、y 軸の動きを減衰させる手法であるという点で Momentum に似ています。前の例は、これがどのように機能するかを理解するのに役立ちます。理解しやすいように、y 軸はバイアス b として表され、x 軸は重み W として表されます。

直感的に、大きな数を別の数で割ると、結果は小さくなります。この例では、最初の大きい数値は db で、2 番目に大きい数値は加重平均 db² です。 db² と dW² の加重平均を追跡するために、2 つの新しい変数 Sdb と SdW が導入されました。 db を Sdb で割ると値が小さくなり、y 軸上の動きが弱まります。 Ⲉ はゼロ除算エラーを回避するために導入されます。同様の直感は、x 軸上の W の値を更新する場合にも当てはまります。

パラメータの更新をよりよく理解し、視覚化するために、y 軸がバイアス b であり、x 軸が重み W であることに注目する価値があります。同様のアプローチを使用して、バイアス b (b1、b2、...、bn) または重み W (W1、W2、...、Wn)、あるいはその両方によって引き起こされる変動を排除することもできます。同様に、パラメータ更新方法のみが変更されたため、ミニバッチ アプローチと RMS オプティマイザーを使用できます。

上記は、RMS Prop を最適化アルゴリズムとして使用する場合の基本的な戦略を示しています。

アダム

Adam は Adaptive Momentum の略です。これは、単一の方法を使用して運動量と RMS プロップを組み合わせ、強力で高速な最適化ツールです。エラー訂正方法は、加重平均計算におけるコールドスタート問題(つまり、加重平均の最初のいくつかの値が実際の値から離れすぎている)を解決するためにも使用できます。 V 値には運動量ロジックが含まれ、S 値には RMS プロップ ロジックが含まれます。

計算では 2 つの異なる β 値が使用されていることに注意してください。 β1 は相対運動量の計算に使用され、β2 は相対 RMS プロップの計算に使用されます。同様に、パラメータ更新方法のみが変更されたため、ミニバッチ アプローチと AdaM オプティマイザーも使用できます。

上記は、AdaM を最適化アルゴリズムとして使用する場合の基本的な戦略を示しています。

パフォーマンス比較


図1


図2

さまざまな最適化アルゴリズムにおける損失面の等高線とその時間発展

<<:  MITの新しいAI研究:セーターが編めなくても問題ない、AIにやらせればいい

>>:  中国の人工知能は現在、世界の中でどの程度のレベルにあるのでしょうか?

ブログ    
ブログ    

推薦する

リアルタイム6自由度オブジェクトトラッキングを実現するDeepACが登場

本記事では、国立国防科技大学の劉宇教授チームと浙江大学-SenseTime合同研究室の周暁偉教授チー...

運輸省は自動運転について「技術革新を歓迎し、支持する」と回答

[[349592]]最近、百度などの企業が自動運転タクシーを導入し、社会的注目を集めています。交通運...

...

黄仁勲のNVIDIAの1兆ドル規模のビジネスを管理するクレイジーな方法:計画なし、レポートなし、階層なし

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

研究により機械学習のバックドア問題が発見される

翻訳者 | 李睿校正:孫淑娟第三者が機械学習モデルを提供し、そこに悪意のあるバックドアを密かに埋め込...

女王即位70周年にあたり、世界初となる超リアルなヒューマノイドロボットアーティストが肖像画を発表したが、「信憑性に欠ける」と批判された。

ビッグデータダイジェスト制作著者: カレブエリザベス2世女王の即位70周年を祝い、英国は早くも祝賀ム...

IoTセキュリティにおける人工知能の重要性

[[423901]]画像ソース: https://pixabay.com/images/id-601...

ビデオ会議に最適な AI アプリケーション

人工知能はさまざまな方法でビジネスを支援しています。 COVID-19パンデミックの間、多くの企業は...

人工知能のもう一つの方向性:メモリスタに基づくストレージおよびコンピューティング技術

[[325184]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...

AIが顧客発見の「スーパーパワー」をもたらす3つの方法

もし何かスーパーパワーを与えられるとしたら、それは何ですか? 営業マンにとって、予知能力、つまり将来...

写真から五感を生成できる AI モデルはどうやってそれを実現するのでしょうか?

MetaImage は最近、テクノロジー界で大きな話題を呼んでいます。論文「IMAGEBIND: ...

アリババ・ダモ・アカデミーがAI防疫技術を再現:CT画像を20秒で解釈、認識精度は96%

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

AIとIoTの連携方法

人工知能 (AI) とモノのインターネット (IoT) の融合により、イノベーションの新しい時代が到...

誰も教えてくれないAI大規模導入の効率的なプロセス!

現在、AIに関するチュートリアルは数多くあります。オブジェクト検出、画像分類、NLP の実行方法、チ...