DA テクノロジーは、まず自己組織化特徴マッピングに基づくクラスタリング テクノロジーを適用します。つまり、自己組織化特徴マッピング ニューラル ネットワークを使用してソース ドメインとターゲット ドメインのサンプルをクラスタリングし、次に 2 レベルのクラスタ マッピング メソッドを使用して、サンプル分布の類似性が最も高いターゲット ソース クラスタを識別します。自動エンコーディング戦略を使用して、ソースドメインに従って類似のターゲット クラスターのグループからのサンプルを変換し、トレーニング セットとテスト セットを構築し、最後に人工ニューラル ネットワーク分類器に基づいて分類します。
リモート センシング アプリケーションの主な課題は、ターゲット ドメイン サンプルの確率分布がソース ドメイン サンプルの確率分布と異なることです。ただし、ターゲット ドメインの分布は、ソース ドメインからの多数のラベル付きサンプルのみを使用してモデル化する必要があります。
a. ソース分類器のパラメータを調整して、ターゲット ドメインからのラベルなしサンプルを分類します。ソース ドメインから伝播するノイズ、外れ値、固有の特徴に問題があります。 b. ターゲットドメインの特徴を分類器のトレーニングセットに組み込む
a. 最初のカテゴリでは、サンプルが 2 つのドメインから分布の違いを相殺できる同一のサブスペースに直接変換されることを強調します。 b. 2 番目のカテゴリは転移学習です。これは、ソース ドメインのサンプルを使用して、ターゲット ドメインから最も情報量の多い、または最も多様なサンプルを選択します。 研究方法: a. 2レベルクラスターマッピング: 最初のレベルでは、t 番目のターゲット クラスターと s 番目のソース クラスターの特徴の差がそれぞれ計算されます。次に、t 番目のターゲット クラスターが、特徴の差が最も小さい j 番目のソース クラスターとペアになります。これに加えて、すべてのペアになったターゲット クラスターとソース クラスターのペアに対して信頼度尺度が計算されます。第 2 段階では、半自動しきい値選択アルゴリズムを使用して、最も類似したソース ターゲット クラスターのペアと類似していないソース ターゲット クラスターを分離し、最も類似したターゲット ソース クラスターのペアのみを保持し、残りのペアは類似していないクラスターとして除外します。 具体的には、オートエンコーダーは、対応するソース クラスターに従って、最も類似したペアのターゲット クラスターからのサンプルを変換します。類似しないターゲット クラスターの場合、クラスターの中心に最も近い r 個のサンプルがラベル付き代表値 (最終トレーニング セット内のターゲット領域の分布特性に関する情報を含む) として選択され、転移学習プロセスを使用してラベル付けされます。 セカンダリ クラスター マッピング フローチャート b. 自己組織化特徴マッピング(SOM) 自己組織化ニューラルネットワーク: 入力層は外部からの入力情報を知覚する網膜をシミュレートし、出力層はそれに反応する大脳皮質をシミュレートします。 主なタスクは依然として「分類」と「クラスタリング」であり、前者は教師あり、後者は教師なしです。クラスタリングは、ターゲット サンプルを分類することと見なすこともできますが、事前の知識がなくても、類似のサンプルを集約し、類似しないサンプルを分離することが目的です。 ネットワークの出力ニューロンはアクティブ化されるために互いに競合するため、特定の瞬間にアクティブ化される出力ニューロンは 1 つだけです。活性化されたニューロンは勝利ニューロンと呼ばれ、他のニューロンの状態は抑制されます。 自己組織化特徴マップ構造 自己組織化機能マッピングの手順
勝利した近傍は最初は大きいですが、トレーニングの実行回数が増えるにつれてそのサイズは縮小し、最終的には半径がゼロになります。 c. ANNベースの分類器 多層パーセプトロン (MLP) MLP は、1 つ以上の隠し層を持つフィードフォワード ニューラル ネットワークであり、期待クラス ラベルと予測クラス ラベル間の二乗誤差の合計を最小化することで、連続する層のニューロン間のノード接続の重みを調整します。主に使用されるのは、ラジアル基底関数 (RBF)、楕円基底関数 (EBF)、および RBF の拡張です。 分類フローチャート d. ラジアル基底関数ニューラルネットワーク 利点: 近似能力、分類能力、学習速度が優れ、学習収束速度が速く、あらゆる非線形関数を近似でき、局所最小値問題を克服できます。 (その理由は、パラメータがランダムではなく特定の方法で初期化されるためです。) 基本的な考え方は、RBF を隠れユニットの「基礎」として使用して、隠れ層空間を形成することです。隠れ層は、入力ベクトルを変換して、入力ベクトルを直接 (重み接続なしで) 潜在空間にマッピングできるようにします (低次元パターン入力データは高次元空間に変換されるため、低次元空間での線形分離不可能な問題は、高次元空間で線形分離可能になります)。隠れ層空間から出力空間へのマッピングは線形です。つまり、ネットワーク出力は隠れユニット出力の線形加重合計であり、ここでの重みはネットワーク調整可能なパラメータです。 |
<<: 機械学習により、脳とコンピューターのインターフェースが「プラグアンドプレイ」になります。 Natureサブジャーナル:麻痺患者もカーソルを制御できる
>>: ブラウザで TensorFlow を使用するにはどうすればいいですか?
どのビジネスリーダーも、顧客サービスがビジネスの最優先事項になっていることを認めるでしょう。同社は、...
近年、世界中でますます多くの政府や企業組織が人工知能の経済的、戦略的重要性を徐々に認識し、国家戦略や...
顔認識技術がさまざまな分野で持つ大きな可能性は、ほとんど想像できないほどです。ただし、最も洗練された...
[[328252]] AI がソフトウェア エンジニアリングやテクノロジー企業に与える影響は否定でき...
[[335135]] 2020年7月18日午後、広州ロイヤルパレスホテルでHuawei DevRu...
正月休みが終わり、心身ともに仕事に復帰できましたか?新年を迎え、私のように、お金を稼ぐために働きたい...
研究によると、漢字の文字の順序は必ずしも読み方に影響しない(英語の場合は各単語の文字の順序が影響する...
人工知能は現在、注目されている分野です。すべてのインターネット企業や著名人が、人工知能はインターネッ...
[[407004]]工学部の学生は、さまざまなシミュレーターから切り離すことはできません。シミュレー...
7月19日、Metaはついに無料の商用版Llama 2をリリースし、オープンソースの大規模モデルの...