ニューラル ネットワークは、機械学習のあらゆる側面に及ぶ幅広い用途に使用されます。この記事では、主にニューラル ネットワークの基本的な理論的概念と計算について簡単に紹介します。同時に、データ分類におけるニューラル ネットワークの応用についても紹介します。
まず、回帰モデルまたは分類モデルを構築するときに、残差誤差を最小限に抑えるために、最小二乗法 (OLS) または平均尤度推定法 (MLE) のいずれかが使用されます。したがって、モデルを構築するときには損失関数が存在します。 ニューラル ネットワークも例外ではなく、同様の損失関数を持ちます。 回帰の場合: 分類について: 次に、同じ方法を使用して W を微分し、導関数がゼロのときに極値を見つけることができます。 式中のWについて。ここでは、3 層のニューラル ネットワークを例に挙げます。まず、ニューラル ネットワークの関連パラメータを紹介しましょう。 最初の層は入力層、2 番目の層は隠れ層、3 番目の層は出力層です。 X1 と X2 は W1 によって重み付けされた後、隠れ層に到達し、次に W2 によって重み付けされて出力層に到達します。 で、 我々は持っています: これまでに、基本的な 3 層ニューラル ネットワークを構築しました。 損失関数を最小化したい場合は、その逆を見つける必要があります。これをバックプロパゲーションと呼びます。 W1 と W2 を別々に微分し、それぞれの極値を見つける必要があります。 右辺から逆算して、まず W2 を導出します。 損失関数の式に代入します。 次に、簡略化します。 ここまで簡略化した後、同様に W1 の導関数も取ることができます。 BP ネットワークを実行すると、損失関数の最終的なサイズを決定する逆誤差項があることがわかります。 実際の計算では、勾配解法を使用して極値点を探します。 要約すると、順方向伝播を使用してニューラル ネットワークを合理化し、回帰モデルと分類モデルを実現します。そして、損失関数を逆方向に計算すると、パラメーター W が最適解を持つようになります。 もちろん、線形回帰などのモデルと同様に、正規化項を追加して W パラメーターを制約し、モデルの偏差が小さすぎてテスト セットのパフォーマンスが低下するのを防ぐこともできます。 Python実装: KERASライブラリの使用 線形回帰を解く:
多重分類問題の解決:
最適なパラメータを選択すると、解決方法は多数あります。ここでは、設定されたすべてのパラメータを走査して最適なパラメータを取得するブルートフォース検索方法である gridsearchcv という方法を紹介します。
|
>>: すべてのデータ サイエンティストが知っておくべき 19 の機械学習アルゴリズム
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
自動運転車、交通標識検出、顔認識、セルフサービスチェックアウト。 これらすべての高度なソリューション...
ビッグデータと機械学習を組み合わせることで、ビジネスの競争優位性を獲得するために必要な、すでに保有し...
今週の水曜日、OpenAI は ChatGPT のマルチモーダル機能のリリースを発表しました。さて、...
ビッグモデルが急増し、仮想世界から現実世界に進出しています。 Google DeepMind は最近...
[[343053]]グラフは、ソーシャル メディア ネットワーク、Web ページやリンク、GPS の...
世界中で白熱した議論を巻き起こしたLK-99論争が終結した後、ネイチャー誌の見出しに再び「室温超伝導...
スマート デバイスを通じてモビリティを向上させる人工知能 (AI) ソリューションは、買い物習慣から...
今日の多くの若い男女にとって、オンラインデートは恋愛関係を見つけるための第一歩です。アメリカでは、こ...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
CB Insightsのデータによると、遠隔医療は2021年第1四半期に139件の取引で過去最高の4...