クラスタリング分析は、データ ポイントを複数の特定のクラスターまたはグループに分割する教師なし学習手法です。これにより、ある意味では、同じグループ内のデータ ポイントは類似したプロパティを持ち、異なるグループ内のデータ ポイントは異なるプロパティを持ちます。 クラスター分析には、さまざまな距離メトリックに基づくさまざまな方法が含まれます。例えば。 K-means (ポイント間の距離)、Affinity propagation (グラフ間の距離)、平均シフト (ポイント間の距離)、DBSCAN (最近接ポイント間の距離)、ガウス混合 (中心までのマハラノビス距離)、スペクトルクラスタリング (グラフ間の距離) など。 2014 年、DBSCAN アルゴリズムは、主要なデータ マイニング カンファレンス ACM SIGKDD で Test of Time Award (理論と実践の両方で広く注目を集めたアルゴリズムに授与される賞) を受賞しました。 すべてのクラスタリング方法では、最初に類似性を計算し、次に類似性を使用してデータ ポイントをグループまたはクラスターにクラスタ化するという同じアプローチが使用されます。この記事では、ノイズを含む密度ベースクラスタリング法 (DBSCAN) に焦点を当てます。 すでに K 平均法クラスタリングが存在しているのに、なぜ DBSCAN のような密度ベースのクラスタリング アルゴリズムが必要なのでしょうか? K 平均法クラスタリングでは、関連性の低い観測値をクラスタ化できます。観測値がベクトル空間内で離れていても、すべての観測値は最終的に何らかのクラスターの一部になります。クラスタリングはクラスター要素の平均に依存するため、各データ ポイントはクラスターの形成に役割を果たします。 データ ポイントのわずかな変更がクラスタリングの結果に影響する可能性があります。 DBSCAN では、クラスターの形成方法により、この問題は大幅に軽減されます。奇妙な形状のデータに遭遇しない限り、これは通常大きな問題にはなりません。 K-means を使用する際のもう 1 つの難点は、使用するクラスターの数 (「k」) を指定する必要があることです。多くの場合、k の適切な値が何であるかは事前にわかりません。 DBSCAN の利点は、使用するためにクラスターの数を指定する必要がないことです。必要なのは、値間の距離を計算する関数と、特定の距離を「近い」と定義するためのいくつかの指示だけです。 DBSCAN は、さまざまな分布にわたって K-means よりも合理的な結果を生成します。次の図はこの事実を示しています。 密度ベースのクラスタリングアルゴリズム 密度ベースのクラスタリングは、データ空間内のクラスターが連続した高ポイント密度領域であり、連続した低ポイント密度領域によって他のクラスターから分離されているという仮定に基づいて、データ内の一意のグループ/クラスターを識別する教師なし学習方法です。 ノイズ付き密度ベースクラスタリング (DBSCAN) は、密度クラスタリングに基づく基本的なアルゴリズムです。ノイズや外れ値を含む大量のデータから、さまざまな形状やサイズのクラスターを検出できます。 DBSCAN アルゴリズムは次の 2 つのパラメータを使用します。
これらのパラメータは、密度到達可能性と密度接続性という 2 つの概念を調べると理解できます。 密度の観点から見た到達可能性は、ある点が他の点から一定の距離 (eps) 以内にある場合、その点に別の点から到達できることを確立します。 接続性には、ポイントが特定のクラスター内に配置されているかどうかを判断するための推移性ベースのリンク メソッドが含まれます。たとえば、p->r->s->t->q の場合、p と q は接続できます。ここで、a->b は、b が a の近くにあることを意味します。 DBSCAN クラスタリングが完了すると、次の 3 種類のポイントが生成されます。
DBSCANクラスタリングアルゴリズムの手順
パラメータ推定 すべてのデータ マイニング タスクにはパラメータの問題があります。各パラメータは特定の方法でアルゴリズムに影響を与えます。 DBSCAN にはパラメータ ε と minPts が必要です。
ただし、ノイズの多いデータセットの場合、一般に値が大きいほど良くなり、より有意なクラスターが生成されます。経験則としては、minPts=2·dim を使用できますが、非常に大きなデータ、ノイズの多いデータ、または重複を多く含むデータの場合は、より大きな値を選択することをお勧めします。 sklearn を使用して Python で DBSCAN を実装する まず、DBSCAN を使用して球面データをクラスタ化します。 まず、対応するラベルを持つ 750 個の球状トレーニング データ ポイントを生成します。次に、トレーニング データの特徴が標準化され、最後に sklearn ライブラリの DBSCAN が適用されます。 球面データのクラスタリングにおける DBSCAN 黒いデータ ポイントは、上記の結果の外れ値を表します。次に、DBSCAN を使用して非球形データをクラスタ化します。
非球面データのクラスタリングにおける DBSCAN これはまさに完璧です。 K-means と比較すると、次のように完全に間違った出力が生成されます。 K平均法クラスタリングの結果 DBSCAN クラスタリング アルゴリズムの複雑さ
密度ベースのクラスタリング アルゴリズムは任意の形状のクラスターを学習できますが、レベル セット ツリー アルゴリズムは密度が大きく異なるデータセット内のクラスターを学習できます。 ただし、これらのアルゴリズムは、K-means などのパラメトリック クラスタリング アルゴリズムと比較すると、調整がやや難しいことに注意してください。 K-means のクラスタリング パラメータと比較すると、DBSCAN またはレベル セット ツリーのイプシロン パラメータは直感的に理解しにくいため、これらのアルゴリズムに適した初期パラメータ値を選択することがより困難になります。 |
1. 機械学習の概要 1. 機械学習とは何ですか?機械は大量のデータを分析して学習します。たとえば...
GPT-4V は視覚エラーマップに挑戦し、その結果は「衝撃的」でした。 「どちらの側が明るいですか」...
ノアとシャオウが編集制作:51CTO テクノロジースタック(WeChat ID:blog)昨日、テク...
[[264958]]将来、道を歩いていて急にお腹が空いたとき、今のように検索エンジンを使って検索する...
これは電池不要のスマートドアロックです。 5月15日、北京で開催された「nokelock 2019グ...
過去 10 年間で、人工知能の分野で大きな進歩が遂げられてきましたが、その中で自然言語処理 (NLP...
人工知能(AI)は驚異的な進歩を遂げ、一般に応用可能な技術として社会に影響を与えています。しかし、初...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
本論文では、確率と統計に基づく類似度測定法であるブラウン距離共分散をディープラーニングに初めて導入し...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[388433]]伝統的な哲学的観点では、「自由意志」は人間だけが持つ特別な能力であり、この能力...
[51CTO.comからのオリジナル記事] デジタル時代において、人工知能の普及はクラウドコンピュー...
推奨システムは、インターネットの発展において最も一般的かつ重要な技術の 1 つです。今日では、あらゆ...
テクノロジーの発展はしばしば諸刃の剣であり、人工知能の商業化も一定の原則に従う必要があります。 6月...