ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

ブースティング原理に基づく深層残差ニューラルネットワークのトレーニング

1. 背景

1.1 ブースティング

ブースティング[1]は、アンサンブルモデルを訓練するための古典的な手法です。その特定の実装の1つであるGBDTは、さまざまな問題で広く使用されています。 boostについては多くの記事で紹介されているので、ここでは詳しくは触れません。簡単に言えば、ブースティング法とは、一連の弱いクラスを特定の基準で 1 つずつトレーニングし、これらの弱いクラスに重み付けして強力な分類器を形成することです (図 1)。

1.2 残余ネットワーク

残差ネットワーク[2]は現在、画像分類などのタスクにおける最も先進的なモデルであり、音声認識などの分野にも応用されています。核となるのはスキップ接続またはショートカットです (図 2)。この構造により、勾配が後方に伝播しやすくなり、より深いネットワークをトレーニングすることが可能になります。

前回のブログ記事「アンサンブルモデルとしての残差ネットワーク」では、残差ネットワークを特別なアンサンブルモデルと見なす学者もいることがわかりました[3,4]。この論文の著者の 1 人は Robert Schapire 氏 (Microsoft Research に加わったことに気付きました) で、彼は AdaBoost の提案者 (Yoav Freund 氏と共著) です。 Ensemble の見解は、基本的に主流の見解の 1 つです。

2. トレーニング方法

2.1 フレームワーク

  • 残余ネットワーク

つまり、これは線形分類器 (ロジスティック回帰) です。

  • 仮説モジュール

ここで、$C$ は分類タスクのカテゴリの数です。

  • 弱いモジュール分類器

ここで、$\alpha$ はスカラー、つまり $h$ は仮説の 2 つの隣接する層の線形結合です。 *** 層には下位層がないため、仮想下位層 $\alpha_0=0$ および $,o_0(x)=0$ を持つと見なすことができます。

  • 残差ネットワークをアンサンブルとして表示する

残差ネットワークの最大出力を$F(x)$とし、これを上記の定義と組み合わせると、次のことが明らかになります。

ここでは分割と合計 (テレスコープ和) の手法が使用されているため、著者は提案されたアルゴリズムをテレスコープ和ブースティングと呼んでいます。

残差ネットワークをレベルごとに(残差ブロックごとに)トレーニングするだけで済みます。これは、一連の弱い分類アンサンブルをトレーニングすることと同じです。残差ネットワークの重みをトレーニングすることに加えて、各層の $\alpha$ と $W$ などの補助パラメータもトレーニングする必要があります (トレーニングが完了したら破棄できます)。

2.2 テレスコープサムブースティング

この記事の本文では、バイナリ分類問題を例として取り上げます。ここでは、マルチ分類問題に焦点を当てており、関連するアルゴリズムは付録に記載されています。記事に記載されている疑似コードの説明は非常に明確であり、以下に直接コピーされています。

このうち、$\gamma_t$はスカラー、$C_t$はm行C列(サンプル数×カテゴリ数)の行列、$C_t(i, j)$はi行j列目の要素を表します。

$st(x, l)$ は $s_t(x)$ の $l$ 番目の要素を表すことに注意してください (ここで使用されている記号は少し恣意的です :-)。また、$st(x) = \sum{\tau=1}^th\tau(x) = \alpha_t \cdot o_t(x) $ です。

アルゴリズム3と同様に、$f(g(x_i), l)$は$f(g(x_i))$の$l$番目の要素を表し、$g(x_i, y_i)$は$g(x_i)$の$i$番目の要素を表します。

明らかに、アルゴリズム4によって与えられた最小化問題はSGDを使用して最適化することも、数値的に解くこともできる([1]のセクション4.3)。

3. 理論

理論的な部分は詳しく検討されませんでした。一般的に、著者らは、BoostResNet をブースト アルゴリズムとして保持する利点として、1) エラーがネットワークの深さ (つまり、弱い分類器の数) とともに指数関数的に減少すること、2) 過剰適合に対する耐性、モデルの複雑さがネットワークの深さとともに直線的に増加すること、を挙げています。詳細は論文をご覧ください。

4. 議論

BoostResNet はレイヤーごとのトレーニングを特徴としており、次のような一連の利点があります。

  • メモリ使用量を削減する (メモリ効率) ことで、大規模なディープ ネットワークをトレーニングできるようになります。 (現在、私たちは好奇心を満たすために、CIFAR で 1000 層の残差ネットワークをトレーニングすることしかできません)
  • 計算量を削減し (計算効率を向上)、各レベルで浅いモデルのみをトレーニングします。
  • 浅いモデルのみをトレーニングする必要があるため、最適化方法 (SGD 以外の方法) のオプションが増えます。
  • さらに、ネットワーク層の数は、トレーニング状況に応じて動的に決定できます。

4.2 いくつかの質問

この記事では、いわゆる e2eResNet を単に比較するのではなく、層ごとにトレーニングされた残差ネットワーク (前の層の重みを固定するかどうかに関係なく) とさらに比較する必要があります。
著者はセクション 1.1*** で、トレーニング フレームワークは ResNet に限定されず、ニューラル ネットワークに限定されることもないと述べています。通常のディープラーニングモデルのトレーニングにどの程度効果があるかはわかりません。競合するレイヤーごとの事前トレーニングは、今では少し時代遅れのようです。

参考文献

  1. Schapire & Freund. ブースティング: 基礎とアルゴリズム. MIT.
  2. He et al. 画像認識のための深層残差学習。
  3. Veit ら「残差ネットワークは比較的浅いネットワークの集合体のように動作する」
  4. Xie et al. ディープニューラルネットワークのための集約残差変換。

<<:  シテチがスマートシティ建設に新たな活力を注入

>>:  Gome のディープラーニング初体験により、ソーシャル e コマースのインテリジェント時代が幕を開けます。

ブログ    
ブログ    
ブログ    

推薦する

人気の4D Radarオープンソースデータの概要

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

なぜ2G/3GとAIは火花を散らすことができないのでしょうか?この論文で答えが分かります

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能(AI)が商業ビルのアプリケーションで成功を収める

[[359215]]今日、ビッグデータやモノのインターネットなどのテクノロジーが広く応用されるように...

人工知能はビジネス開発にどのような影響を与えるのでしょうか?

[[403654]]人工知能はイノベーションを推進し、ビジネス開発を変えています。人工知能と機械学...

...

人工知能が普及しつつある今、将来はロボットの時代になるのでしょうか?

今は特に人工知能が普及していますが、将来はロボットの時代になることは絶対にありません。なぜなら、機械...

ガートナー:金融業界はAIがもたらす変化を追求

私たちがよく話題にする金融テクノロジーとは、人工知能とデータを活用して新しいビジネス手法を見つけるも...

AI 駆動型データ分析ツールが企業や組織にもたらすメリット

AI を活用したデータ分析は、世界中の多くの企業にとって非常に役立つものになりつつあります。ますます...

機械学習が製造業に革命を起こす10の方法

人工知能の導入は製造業に大きな経済的利益をもたらすでしょう。この点に関しては、さまざまな研究機関が関...

ロボットが人間のように学習できるようにする Google RT-2 AI モデルとは何ですか?

ビッグモデルが急増し、仮想世界から現実世界に進出しています。 Google DeepMind は最近...

...

Ant Group は、動画の著作権侵害検出用に 16 万本の動画ペアと 28 万本のクリップペアからなる大規模なデータセットを公開しました。

従来の著作権保護業界は、時間がかかり、労働集約的で、コストがかかります。膨大な量のコンテンツを完全に...