序文 このブログ投稿では、第一レベルの数学的導出の観点から LDA トピック モデルを詳細に説明します。LDA のみを理解したい読者は、最初のセクションの紹介だけを読んでください。 PLSA は LDA と非常に似ているため、トピックモデリングにおいても非常に重要なモデルです。この記事では、このモデルについても重点的に説明します。読みにくい場合は、フィボナッチ数列を定義し、知識ポイントが収束するまで f(n) = f(n-1) + f(n-2) の日に再度読み進めることができます。読者が記事に誤りを見つけたり、改善の余地があると思われる場合は、お気軽に共有してください。 1. はじめに 機械学習の分野では、LDA は、線形判別分析と潜在的ディリクレ配分という 2 つのよく使用されるモデルの略称です。この記事の LDA は、潜在的ディリクレ分布のみを指します。LDA はトピック モデルで非常に重要な役割を果たし、テキスト分類によく使用されます。 LDA は、文書のトピック分布を推測するために、2003 年に Blei、David M.、Ng、Andrew Y.、Jordan によって提案されました。文書セット内の各文書のトピックを確率分布の形式で提示できるため、いくつかの文書を分析してトピック分布を抽出した後、トピック分布に基づいてトピッククラスタリングまたはテキスト分類を実行できます。 2. 事前の知識 LDA モデルには多くの数学が含まれており、これがおそらく LDA がわかりにくい主な理由です。このセクションでは、主に LDA に関係する数学的な知識を紹介します。数学の基礎がしっかりしている学生はこのセクションをスキップできます。 LDA に必要な事前知識には、二項分布、ガンマ関数、ベータ分布、多項分布、ディリクレ分布、マルコフ連鎖、MCMC、ギブス サンプリング、EM アルゴリズムなどが含まれます。スペースの制限により、この記事では、いくつかの概念を重点的に紹介するだけにします。すべての概念を詳細に紹介したり、各概念の数式を導出したりすることはしません。すべての概念を詳細に紹介すると、おそらく 100 ページの本が必要になるでしょう。 LDA を熟知し、自由に使用できるようになったら、おめでとうございます。機械学習の強固な数学的基礎を習得したことになります。基礎となる数式導出プロセスについて詳しく知りたい場合は、「The Complete Book of Mathematics」などの資料を参照してください。 3.2 PLSAモデル 主語の概念は Unigram モデルでは考慮されません。私たちが記事を書くとき、それはすべて特定のトピックに関するものであり、ランダムな単語ではありません。たとえば、金融ジャーナリストがレポートを書く場合、記事の大部分は金融トピックに関するものになります。もちろん、他のトピックに関連する単語も少数あります。したがって、PLSA は、ドキュメントの生成プロセスは次のようになると考えています。
上図には3つのトピックがあります。PLSAでは、トピックワード「教育」を確率0.5で抽出するなど、一定の確率でトピックワードを抽出し、抽出したトピックワードに基づいて対応する単語分布を求め、単語分布に基づいて語彙を抽出します。このことから、PLSA ではトピック分布と単語分布の両方が一意に決定されることがわかります。しかし、LDA では、トピック分布と単語分布は不確実です。LDA の著者はベイズの考えを採用し、分布に従うべきだと考えています。トピック分布と単語分布はどちらも多項分布です。多項分布とディリクレ分布は共役構造であるため、LDA では、トピック分布と単語分布は共役事前分布としてディリクレ分布を使用します。そのため、LDA は PLSA のベイズバージョンであるという説が広く流布しています。次の 2 つの図でその違いがよくわかります。 PLSA と LDA の両方の論文では、モデルを説明するために次の図が使用されています。また、PLSA と LDA の違いを比較するのにも役立ちます。 3.3.6 LDA推論 LDA モデルでは、新しいドキュメント doc に対して、トレーニング コーパスから取得されたモデルによって提供されるギブス サンプリング式の部分が安定していて変更されていないと仮定するだけで済みます。したがって、サンプリング プロセス中は、ドキュメントのトピック分布を推定するだけで済みます。具体的なアルゴリズムは次のとおりです。
4つのヒント LDA を理解している面接官は通常、求職者に LDA のトピックの数をどのように決定するかを尋ねます。 LDA では、トピックの数に対して固定された最適解は存在しません。モデルをトレーニングする際には、トピックの数を事前に設定する必要があります。トレーナーは、トレーニング結果に基づいてパラメータを手動で調整し、トピックの数を最適化して、テキスト分類の結果を最適化する必要があります。 5 追記 LDA には幅広い用途があります。LDA を深く理解することは、モデルの調整、新しいモデルの提案、AI スキルの向上に大いに役立ちます。 LDA が何に使用できるかを知っているだけでは、初心者を騙すことはできません。 Baidu は LDA モデルをオープンソース化しました。興味のある方は、https://github.com/baidu/Familia/wiki をご覧ください。 参考文献 [1]: Blei, DM, Ng, AY, & Jordan, MI (2003). 潜在的ディリクレ配分。機械学習研究ジャーナル、3(1月)、993-1022。 [2]: Hofmann, T. (1999). 確率的潜在意味索引付け。情報検索の研究開発に関する第22回国際ACM SIGIR会議議事録(pp. 50-57)。ACM。 [3]: Li, F., Huang, M., & Zhu, X. (2010). グローバルトピックとローカル依存関係による感情分析。AAAI (第10巻、pp. 1371-1376)。 [4]: Medhat, W., Hassan, A., & Korashy, H. (2014). 感情分析アルゴリズムとアプリケーション: 調査. Ain Shams Engineering Journal, 5(4), 1093-1113. [5]: Rick, Jin. (2014). http://www.flickering.cn/数学之美/2014/06/【lda数学八卦】神奇的グラム/より取得。 [6]: LDAトピックモデルの簡単な理解。(2014) http://blog.csdn.net/v_july_v/article/details/41209515より取得。 [7]: 周志華(2017)『機械学習』北京、中国:清華大学出版局。 [8]: Goodfellow, I., Bengio, Y., Courville, A. (2017). ディープラーニング. マサチューセッツ州ケンブリッジ: MIT プレス. [9]: Hang, Li. (2016). 統計的学習法. 北京、中国: 清華大学出版局. 著者: Xia Qi、Daguan Data の NLP チーム、WeChat ID: Datagrand [この記事は51CTOコラムニスト「Daguan Data」によるオリジナル記事です。転載については51CTOコラムまでご連絡ください] この著者の他の記事を読むにはここをクリックしてください |
<<: 2018 年に人工知能を変える 5 つのビッグデータ トレンド
マシンビジョンは急速に発展している人工知能の分野です。簡単に言えば、マシンビジョンとは、測定と判断の...
1. 要件の説明文字列を入力し、その文字列が回文であるかどうかを判断するプログラムを作成します。便宜...
11月14日、海外メディアの報道によると、OpenAIはGPT-5の構築を開始した。同社のCEOサム...
[[262099]]医療機関が AI の導入を競う中、プロセス中心のアプローチを AI 戦略に組み込...
この記事では、まず単一ソース最短経路問題から始め、次にベルマン・フォード アルゴリズムについて説明し...
マクロ的な視点で見ると、人工知能(AI)は労働力を補完する存在です。AIはデータに基づく意思決定のツ...
現代のディープラーニングおよび人工知能技術の開発には、ディープニューラルネットワーク (DNN) を...
[[314283]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
ResearchAndMarkets が発表した最新のレポートによると、2027 年までに世界の人...