今日は畳み込みニューラル ネットワークについてお話します。畳み込みニューラル ネットワークは、主に、畳み込みニューラル ネットワークの歴史、完全結合層、畳み込み層、プーリング層の 4 つの部分から構成されます。 CNN の正式名称は畳み込みニューラル ネットワークであり、そのプロトタイプは 1998 年に LeCun によって発明された LeNet ネットワーク構造です。 LeNet ネットワーク アーキテクチャ では、ニューラル ネットワークとは一体何でしょうか?畳み込み層を持つものはすべて畳み込みニューラル ネットワークと呼ぶことができると言えます。 ニューラルネットワークの歴史 1986年: Rumelhart、Hintonらがバックプロパゲーションアルゴリズムを提案した。 1998年: LeCun が BP ニューラル ネットワークに基づいて LeNet ネットワークをトレーニングし、CNN が本格的に始動しました。 2006年: Hinton が科学論文で初めてディープラーニングの概念を提案しました。 2012年:実は、ヒントンが2006年にディープニューラルネットワークを提唱した後、多くの人から疑問視されました。しかし、2012年にヒントンの学生アレックス・クリジェフスキーは、寮でGPUを使用してディープラーニングモデルを開発し、コンピュータービジョンのトップ分野でILSVRC 2012チャンピオンを獲得しました。数百万レベルのImageNetデータセットでは、その効果は従来の方法よりもはるかに優れており、精度率は70%から80%に向上しました。 完全接続層 実際、完全結合層は脳のニューロン構造を模倣しています。次のことがわかります。 出力値 = 入力値 x に重み w をつけて、活性化関数を通した累積結果。正式には: 次に、ニューロンを列に配置し、列を完全に接続して BP ニューラル ネットワークを取得します。 BP ニューラル ネットワーク アルゴリズムには、信号の順方向伝播とエラーの逆方向伝播という 2 つのプロセスが含まれます。つまり、エラー出力は入力から出力に計算され、重みとしきい値は出力から入力に調整されます。 BP ニューラル ネットワークを理解するために例を見てみましょう。 例: BPニューラルネットワークを使用したデジタル認識 たとえば、最初の画像では 0 が示されています。この画像は複数のピクセルで構成されており、各ピクセルには 3 つの RGB チャネルがあります。その後、グレー表示されて 2 番目の画像になり、グレー表示された画像が 2 値化されて 3 番目の画像になります。 次に、画像に対して確率処理を実行します。たとえば、最初のボックスでは、白いブロック/すべてのブロック = 0.2 です。対応する戦略で処理した後、最初の値は 0.2 になります。同様に、上図の右側の行列も得られます。 次に、行列を 1*n 行ベクトルに変換して処理します。この処理された形式により、ニューラル ネットワークの入力処理が改善されます。 ニューラル ネットワークの入力方法がわかったので、数字をより適切に識別するための最終出力はどうあるべきでしょうか?ワンホットエンコーディング! つまり、それぞれの数字がコードに対応しており、1000000000と入力すると0と判断される、という具合です。 入力と出力ができたので、ニューラル ネットワークを通じてトレーニングすることができます。 まず、入力層のニューロン数を25ノード、出力層を10ノードに設定します。上記の1*nベクトルをBPニューラルネットワークに入力し、隠れ層を通過させて最後に出力層に渡してワンホットエンコーディングします。出力層はソフトマックス活性化関数を通じて各数字の出現確率を取得し、数字を認識できるようにします。 畳み込み層 畳み込み層とは何でしょうか?前回の記事でもお話しましたが、興味のある方は直接確認してみてください。 漫画: 畳み込みニューラル ネットワークにおける畳み込みカーネルとは正確には何ですか? 漫画:畳み込みニューラル ネットワークが画像データの処理に適しているのはなぜですか? 実践スキル | 畳み込みニューラル ネットワークの始め方 畳み込み層の説明で、畳み込みカーネルが境界を越えた場合はどうすればよいのかという質問をしたいと思います。たとえば、次のようになります。 このような行列を想定して、ステップ サイズが 2 の 3*3 スライディング ウィンドウを使用する場合、次の状況にどのように対処すればよいでしょうか。 以下に示すように、Padding を使用して 0 で埋めることができます。 畳み込み演算中、畳み込み演算後の行列のサイズは次の要因によって決まります。
畳み込み後の行列のサイズは特定のパターンに従うため、一般的な式は次のようになります。 N=(W-F+2P)/S+1 プーリング層 プーリング層はなぜ存在するのでしょうか?現在の入力データは大きすぎて冗長な情報が多数含まれているため、画像マトリックスをダウンサンプリングし、特徴マップに対してスパース処理を実行してデータ計算量を削減する方法を見つける必要があります。次に、MaxPooling ダウンサンプリングを使用して、プーリング層が何であるかを示します。 上図の赤い部分の値は1 1 5 6です。MaxPoolingを使用しているので最大値を取ります。右図の赤い部分はmax(1,1,5,6)=6となり、ダウンサンプリングの結果となります。 最大ダウンサンプリングと同様に、以下に示すように平均ダウンサンプリング レイヤーもあります。 プーリング層をよりよく理解して使用するために、プーリング層の 3 つの特性をまとめました。
今日は、ニューラルネットワークの開発の歴史、全結合層、畳み込み層、プーリング層など、畳み込みニューラルネットワークの全体的なアーキテクチャについてお話します。お読みいただきありがとうございました〜 |
<<: 教師あり学習、教師なし学習、強化学習とは何ですか?ついに誰かが明らかにした
>>: 人工知能の70年間で、研究者が最も直面したくない痛い教訓は...
[[201793]]導入毎晩残業して家に帰るときは、Didiやシェア自転車を使うこともあります。ア...
私たちの日常生活には、近視用メガネ、サングラス、サングラス、遠視用メガネ、ゴーグルなど、視力矯正、視...
先日終了したCESで、ドイツのコンチネンタルAGは、新しい物流ロボット、荷物配達ロボット犬「ANYM...
ぼやけた写真を見ると、本来の姿を復元したいという衝動にかられることはありませんか?以前の技術ではこれ...
人工知能(AI)は2023年に世界的な革命を引き起こし、多くの企業がこの高度なテクノロジーを自ら習得...
画像分類を始めたいが、どこから始めればよいか分からない。どの事前トレーニング済みネットワークを使用す...
2021年人工知能と教育に関する国際会議では、人工知能と教育・指導の深い融合を推進し、人工知能を利用...
[[344622]] 第61回国際数学オリンピック(IMO)2020の結果が先日発表されました。中国...
最近、ニューヨークタイムズの年次ディールブックサミットで、黄仁勲氏は、汎用人工知能(AGI)を「かな...
最近では、「ビッグデータ」や「人工知能」ほどよく使われる流行語はほとんどありません。多くのデータ分析...
各 Web アプリケーションには独自の機能とパフォーマンス パラメーターのセットがあり、これらは動的...
[[339878]]この記事はWeChatパブリックアカウント「Backend Technology...
自動運転技術の開発は加速しており、商業的な検討も日々増加しています。現段階では、業界では貨物輸送と旅...