ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主にニューラル ネットワークの基本的な理論的概念と計算について簡単に紹介します。同時に、データ分類におけるニューラル ネットワークの応用についても紹介します。
まず、回帰モデルまたは分類モデルを構築するときに、残差誤差を最小限に抑えるために、最小二乗法 (OLS) または平均尤度推定法 (MLE) のいずれかが使用されます。したがって、モデルを構築するときには損失関数が存在します。 ニューラル ネットワークも例外ではなく、同様の損失関数を持ちます。 回帰の場合: 分類について: 次に、同じ方法を使用して W を微分し、導関数がゼロのときに極値を見つけることができます。 式中のWについて。ここでは、3 層のニューラル ネットワークを例に挙げます。まず、ニューラル ネットワークの関連パラメータを紹介しましょう。 最初の層は入力層、2 番目の層は隠れ層、3 番目の層は出力層です。 X1 と X2 は W1 によって重み付けされた後、隠れ層に到達し、次に W2 によって重み付けされて出力層に到達します。 で、 我々は持っています: これまでに、基本的な 3 層ニューラル ネットワークを構築しました。 損失関数を最小化したい場合は、その逆を見つける必要があります。これをバックプロパゲーションと呼びます。 W1 と W2 を別々に微分し、それぞれの極値を見つける必要があります。 右辺から逆算して、まず W2 を導出します。 損失関数の式に代入します。 次に、簡略化します。 ここまで簡略化した後、同様に W1 の導関数も取ることができます。 BP ネットワークを実行すると、損失関数の最終的なサイズを決定する逆誤差項があることがわかります。 実際の計算では、勾配解法を使用して極値点を探します。 要約すると、順方向伝播を使用してニューラル ネットワークを合理化し、回帰モデルと分類モデルを実現します。そして、損失関数を逆方向に計算すると、パラメーター W が最適解を持つようになります。 もちろん、線形回帰などのモデルと同様に、正規化項を追加して W パラメーターを制約し、モデルの偏差が小さすぎてテスト セットのパフォーマンスが低下するのを防ぐこともできます。 Python実装: KERASライブラリの使用 線形回帰を解く:
多重分類問題の解決:
最適なパラメータを選択すると、解決方法は多数あります。ここでは、設定されたすべてのパラメータを走査して最適なパラメータを取得するブルートフォース検索方法である gridsearchcv という方法を紹介します。
|
>>: すべてのデータ サイエンティストが知っておくべき 19 の機械学習アルゴリズム
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
マスク氏はテスラがスマートウォッチやスマートフォンを開発しているという説を否定している。テスラがスマ...
2022 年、データと AI はデジタル革命の新たな章の基盤を築き、ますます多くのグローバル企業に...
[[434467]]文字列が与えられた場合、その文字列に含まれる回文の部分文字列の数を数えることがタ...
Uberは過去5年間で25億ドルを費やしてきたが、自動運転車による配達の実現にはまだ程遠い。今年の世...
[[259079]] AI の応用により予測コストが大幅に削減され、企業はますます新しい、予想外の方...
[[319182]] 3月19日、Google BrainとAIチームは今週、EfficientDe...
[[418716]]建築の問題を研究すると、ほぼすべての「新しい」アイデアが、おそらく何十年も前に何...
2020年のコロナウイルスの流行により、多くの業界のトレンドが大幅に加速し、2021年もその傾向が続...
最近、数年間業界で働いているスタンフォード大学の AI 卒業生が、AI と機械学習のキャリアのために...
顔認識技術は人間の顔の特徴に基づいています。まず、入力された顔画像またはビデオ ストリームに顔がある...