機械学習に関する知識が増えるにつれて、機械学習アルゴリズムの数も増えました。この記事では、データ サイエンス コミュニティでよく使用される機械学習アルゴリズムについて説明します。
すべてのアルゴリズムを徹底的に説明すると、この記事は本と同じくらいの長さになってしまうため、一部のアルゴリズムについては他のアルゴリズムよりも詳しく説明することをご留意ください。また、数学に詳しくない人にとっては数学が威圧的になる可能性があることを知っているので、この記事では数学の量を最小限に抑えるように努めます。代わりに、それぞれの概要を簡単に説明し、いくつかの重要な機能を指摘したいと思います。 これを念頭に置いて、まずはより基本的なアルゴリズムをいくつか説明してから、CatBoost、Gradient Boost、XGBoost などの新しいアルゴリズムについて説明します。 線形回帰 線形回帰は、従属変数と 1 つ以上の独立変数の関係をモデル化するための最も基本的なアルゴリズムの 1 つです。つまり、2 つ以上の変数を表す「最適な直線」を見つけることです。 最適な直線は、点と最適な直線の間の距離の二乗を最小化することによって見つけられます。これは、残差二乗和の最小化と呼ばれます。残差は予測値から実際の値を引いたものです。 > 作者が作成した画像 まだ意味が分からない場合は、上の図を検討してください。 最もよく適合する緑の線と赤い線を比較すると、緑の線の方が赤い線よりも垂直線 (残差) がはるかに大きいことがわかります。 これは当然のことです。緑の線は点から非常に離れているため、データを適切に表していないからです。 線形回帰の背後にある数学についてさらに詳しく知りたい場合は、まず Brilliant の説明から始めることをお勧めします。 ロジスティック回帰 ロジスティック回帰は線形回帰に似ていますが、離散的な数の結果(通常は 2 つ)の確率をモデル化するために使用されます。 一見すると、ロジスティック回帰は線形回帰よりもはるかに複雑に聞こえますが、実際に必要なのは 1 つの追加ステップだけです。 まず、線形回帰の最適直線の式に似た式を使用してスコアを計算します。 追加の手順は、以前に計算したスコアを以下のシグモイド関数に入力して、リターンの確率を取得することです。この確率は、1 または 0 のバイナリ出力に変換できます。 スコアを計算するための初期方程式の重みを見つけるには、勾配降下法や最大尤度法などの方法が使用されます。 この記事の範囲外なので、これ以上詳しく説明しません。しかし、これで仕組みがわかりましたね。 K 最近隣 > 画像は著者作成 K 最近傍は単純なアイデアです。まず、分類されたデータ (赤と青のデータ ポイント) から始めます。次に、新しいデータ ポイントを追加するときに、最も近い k 個の分類されたポイントを調べて分類できます。最も多くの票を獲得したカテゴリーによって、新しいポイントが何に分類されるかが決まります。 この場合、k を 1 に設定すると、灰色のサンプルに最も近い最初のポイントが赤色のデータ ポイントであることがわかります。 したがって、そのポイントは赤として分類されます。 留意すべき点の 1 つは、k の値が低すぎると外れ値が発生する可能性があることです。一方、k の値が高すぎると、サンプル数が少ないクラスが無視される可能性があります。 ナイーブベイズ ナイーブベイズは分類アルゴリズムです。 つまり、出力変数が離散的な場合は、Naive Bayes が使用されることになります。 ナイーブベイズは、条件付き確率とベイズの定理に関する予備的な数学的知識を必要とするため、難しいアルゴリズムのように思えるかもしれませんが、非常に単純で「素朴な」概念であり、例を挙げて説明できるよう最善を尽くします。 > 作者が作成した画像 天気の特徴 (見た目、気温、湿度、風) とゴルフが行われたかどうか (最後の列) に関するデータを入力するとします。 ナイーブベイズが本質的に行うことは、各入力変数のカテゴリ間の比率を出力変数と比較することです。これは以下の表に示されています。 > 作者が作成した画像 この例の読みやすさを考慮して、気温のセクションでは、ゴルフをプレーした 9 日間のうち 2 日間は暑かった (つまり暑かった) としています。 数学的に言えば、これはゴルフボールを熱く打つ確率として表現できます。数学記号は P(hot | yes) です。これは条件付き確率であり、これから述べる残りの部分を理解する上で非常に重要です。 この情報を入手すれば、天候の特徴の組み合わせに基づいてゴルフをプレーするかどうかを予測できます。 次のような特徴を持つ新しい一日を想像してください。
まず、X が与えられた場合にゴルフボールを打つ確率 P(y|X) を計算し、次に X が与えられた場合にゴルフボールを打つ確率 P(no|X) を計算します。 上記のグラフを使用すると、次の情報が得られます。 これで、この情報を次の数式に入力するだけです。 同様に、P(no | X) に対しても同じ一連の手順を実行します。 P(はい | X) > P(いいえ | X) なので、見通しは晴れ、気温は適度、湿度は正常、強風もないので、その人がゴルフをすると予測できます。 これがナイーブベイズの真髄です! サポートベクターマシン > 作者が作成した画像 サポート ベクター マシンは、実際には非常に複雑になる可能性がある教師あり分類手法ですが、最も基本的なレベルでは非常に直感的です。 この記事では、概要に留めておきます。 2 種類のデータがあるとします。 SVM は、2 つのデータ クラス間のマージンを最大化する 2 つのデータ クラス間の超平面または境界を見つけます (上記を参照)。 2 つのクラスを分離できる平面は多数ありますが、2 つのクラス間のマージンまたは距離を最大化する平面は 1 つだけです。 サポート ベクター マシンの背後にある数学を理解したい場合は、この一連の記事をご覧ください。 決定木 > 画像は著者作成 ランダムフォレスト ランダム フォレストを理解する前に、次の 2 つの用語を理解する必要があります。
用語を理解したところで、さらに詳しく見ていきましょう。 ランダム フォレストは、決定木に基づいたアンサンブル学習手法です。 ランダム フォレストでは、元のデータのブートストラップされたデータセットを使用して複数の決定木を作成し、決定木の各ステップで変数のサブセットをランダムに選択します。 次に、モデルは各決定木からのすべての予測のモード (バギング) を選択します。 これのポイントは何でしょうか? 「多数決」モデルに頼ることで、1 本のツリーが間違っているリスクが軽減されます。 > 作者が作成した画像 たとえば、決定木を作成すると、3 番目の決定木は 0 を予測します。ただし、4 つの決定木すべてのモードに依存する場合、予測値は 1 になります。それがランダムフォレストの力です! アダブースト AdaBoost または Adaptive Boost も、パッキングとブースティングの手法を利用して強化された予測子を開発するアンサンブル アルゴリズムです。 AdaBoost は、予測が多数の決定木から得られるという点でランダム フォレストに似ています。ただし、AdaBoost には 3 つの重要な違いがあります。 > 切り株の例
本質的に、AdaBoost はより反復的なアプローチを採用し、以前の切り株で発生した間違いから反復的に改善することを目指します。 AdaBoost の背後にある基礎的な数学について詳しく知りたい場合は、私の記事「5 分で説明する AdaBoost の数学」をご覧ください。 勾配ブースティング 勾配ブースティングもアンサンブル アルゴリズムであり、ブースティング手法がブースティング予測子の開発に使用されるのは当然のことです。多くの点で Gradient Boost は AdaBoost に似ていますが、主に 2 つの違いがあります。
最後の点は混乱を招くかもしれませんが、知っておく必要があるのは、Gradient Boost は最初にデータを適合させるためのツリーを構築し、その後に構築されるツリーは残差 (エラー) を減らすことを目的としているということです。これは、AdaBoost と同様に、既存の学習者のパフォーマンスが低い領域に焦点を当てることで実現します。 XGBoost XGBoost は非常に強力であるため、現在最も人気があり、広く使用されているアルゴリズムの 1 つです。これは Gradient Boost に似ていますが、より強力な追加機能がいくつかあります。
アルゴリズムの仕組みをより詳しく理解するには、StatQuest のビデオを視聴することを強くお勧めします。 ライトGBM XGBoost が最高のアルゴリズムだと考えているなら、もう一度考え直してください。 LightGBM は、XGBoost よりも高速でさらに正確であることが証明されている別のブースティング アルゴリズムです。 LightGBM が他と異なるのは、Gradient-based Single-sided Sampling (GOSS) と呼ばれる独自の手法を使用してデータ インスタンスをフィルターし、分割値を見つけることです。これは、事前ソートとヒストグラムベースのアルゴリズムを使用して最適な分割を見つける XGBoost とは異なります。 Light GBM と XGBoost の詳細については、こちらをご覧ください。 キャットブースト CatBoost は勾配降下法に基づく別のアルゴリズムですが、いくつかの微妙な違いがあり、それが独自の特徴となっています。
全体的に、CatBoost が非常に強力なのは、レイテンシ要件が低いことであり、これは XGBoost よりも約 8 倍高速であることを意味します。 CatBoost についてさらに詳しく知りたい場合は、この記事をご覧ください。 読んでくれてありがとう! 成功したら、おめでとうございます。これで、さまざまな機械学習アルゴリズムについてより深く理解できるはずです。 最後のいくつかのアルゴリズムを理解するのに苦労しているとしても、落胆しないでください。これらはより複雑であるだけでなく、比較的新しいものでもあるのです。これらのアルゴリズムについてさらに詳しく説明するリソースを今後もお楽しみに。 |
>>: なぜ失敗したかご存知ですか?機械学習プロジェクトの 87% がこのように失敗します…
もしあなたが会社の CEO だったら、自社の製品が競合他社に打ち負かされたと聞いたらどう感じるでしょ...
[[231600]]無人スーパー、無人運転…これらはもう珍しいことではない「無人銀行」って聞いたこと...
過去数年間、テクノロジー業界は半導体サプライチェーンにおける前例のない混乱の影響を感じてきました。研...
昨日の人工知能プロジェクトに関する 10 の提案 - 理論に続き、今日は人工知能プロジェクトの 10...
[51CTO.comより引用] 現在、AIの幕が開き、人類世界は蒸気時代、電気時代、情報化時代に続く...
[[351301]]資本の冬を経験した後、疫病のブラックスワンが次々と起こり、AI初期に蓄積された非...
[[417111]] AI と IoT ほどエキサイティングで重要なテクノロジーの組み合わせはほと...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
著者: 張傑【51CTO.comオリジナル記事】 AI チップはなぜ必要なのでしょうか?新しいイ...
農業、工業、情報、知能、社会は常に進歩しています。長い発展の過程で、生産手段と生産ツールは常に変化し...
[[383847]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...