人工知能と機械学習の違いは何ですか?

人工知能と機械学習の違いは何ですか?

[[197626]]

人工知能は新しい用語ではなく、その開発の歴史は数十年にわたります。それは 1980 年代初頭に、コンピューター科学者が人間の行動を学習し模倣できるアルゴリズムを設計したときに始まりました。学習という点では、最も重要なアルゴリズムはニューラルネットワークですが、モデルが強力すぎることと、それをサポートするデータが不足していることから、あまり成功していません。しかし、データを使用して関数を適合させるというアイデアは、より具体的なタスクでは非常に成功しており、機械学習の基礎を形成しています。模倣の面では、AI は画像認識、音声認識、自然言語処理など幅広い分野で応用されています。専門家は、エッジ コンピューティング、カラー プロファイル、N グラム言語モデル、構文ツリーなどの作成に多くの時間を費やしましたが、結果は平凡なものでした。

従来の機械学習

機械学習 (ML) 技術は予測において重要な役割を果たします。機械学習は多くの世代を経て、次のような完全なモデル構造を備えています。

  • 線形回帰
  • ロジスティック回帰
  • 決定木
  • サポートベクターマシン
  • ベイズモデル
  • 正規化モデル
  • アンサンブルモデル
  • ニューラルネットワーク

各予測モデルは特定のアルゴリズム構造に基づいており、そのパラメータは調整可能です。予測モデルのトレーニングには、次の手順が含まれます。

1. モデルアーキテクチャ(ロジスティック回帰、ランダムフォレストなど)を選択します。

2. モデルにトレーニング データ (入力と出力) を入力します。

3. 学習アルゴリズムは最適なモデル(つまり、トレーニング エラーを最小限に抑える特定のパラメーターを持つモデル)を出力します。

各モデルには独自の特性があり、一部のタスクでは優れたパフォーマンスを発揮しますが、他のタスクではそうではありません。しかし、一般的に言えば、低電力(シンプル)モデルと高電力(複雑)モデルに分けることができます。異なるモデルの中から選択するのは非常に難しい問題です。従来、次の理由により、高電力/複雑なモデルを使用するよりも、低電力/シンプルなモデルを使用する方が優れています。

処理能力が十分に備わる前は、高性能モデルのトレーニングには長い時間がかかりました。

膨大な量のデータが得られるまで、高出力モデルをトレーニングすると、過剰適合の問題が発生します (高出力モデルはパラメーターが豊富で、複数のデータの形状に適応できるため、将来のデータを予測するのではなく、現在のトレーニング データに非常に関連性の高いモデルをトレーニングしてしまう可能性があります)。

ただし、低パワー モデルを選択すると、モデル構造が単純すぎるため、より複雑な状況でのトレーニング データに適応できない、いわゆる「アンダーフィッティング」問題が発生します。 (次のデータに y = 5*X の 2 乗という二次関係があるとします。A と B を何に選択しても、y = A、B、B、B という線形回帰を当てはめる方法はありません。)

「アンダーフィット問題」を軽減するために、データ サイエンティストは多くの場合、「ドメイン知識」を適用して、出力とより直接的な関係を持つ「入力機能」を生成します。 (たとえば、y=5*X の 2 乗という二次関係に戻り、a=5 および b=0 を選択して線形回帰を適合します。

機械学習における大きなハードルは、この特徴エンジニアリングのステップであり、トレーニング プロセスに入る前にドメインの専門家が重要なシグナルを識別する必要があります。特徴エンジニアリングのステップは非常に手作業が多く、多くのドメイン専門知識を必要とするため、今日のほとんどの機械学習タスクの主なボトルネックになっています。言い換えれば、十分な処理能力と十分なデータがない場合、低電力/シンプルなモデルを使用する必要があり、適切な入力機能を作成するために多くの時間と労力を費やす必要があります。ほとんどのデータ サイエンティストが時間を費やしているのはこのことです。

ニューラルネットワークの回帰

2000 年代初頭、ビッグデータ時代のきめ細かいイベントデータが大量に収集されるようになり、クラウド コンピューティングや超並列処理インフラストラクチャの進歩により、マシン処理能力が大幅に向上しました。低電力/シンプルなモデルに限定されなくなりました。たとえば、現在最も人気のある機械学習モデルの 2 つは、ランダム フォレストと勾配ブースティング ツリーです。ただし、これらはすべて非常に強力であり、トレーニング データに非線形モデル フィッティングを提供しますが、データ サイエンティストは優れたパフォーマンスを実現するために機能を慎重に作成する必要があります。

その一方で、コンピューター科学者は、人間のようなタスクを実行するために、多くの層を持つニューラル ネットワークを再利用してきました。これは、画像分類および音声認識タスクにおける新しく誕生した DNN (ディープ ニューラル ネットワーク) にとって大きな進歩となります。

DNN との主な違いは、ドメイン固有の入力機能を作成せずに、生の信号 (RGB ピクセル値など) を直接 DNN に送信できることです。複数のニューロン層(これが「ディープ」ニューラル ネットワークと呼ばれる理由です)を通じて、各層を通過する対応する特徴を自動的に生成し、*** 優れた予測を提供できます。これにより、データ サイエンティストが直面する大きなボトルネックである「特徴エンジニアリング」にかかる労力が大幅に軽減されます。

DNN はさまざまなネットワーク構造に進化しており、CNN (畳み込みニューラル ネットワーク)、RNN (リアル ネットワーク)、LSTM (長期短期記憶)、GAN (敵対的生成ネットワーク)、転移学習、注意モデルなどがあります。この範囲全体は「ディープラーニング」と呼ばれ、現在、機械学習コミュニティ全体の焦点となっています。

強化学習

もう一つの重要な部分は、学習するためにどのように人(または動物)を模倣するかということです。知覚/行動/報酬のサイクルという非常に自然な動物の行動を想像してみてください。人間や動物は、まず自分がどのような状態にあるかを感知することによって、環境を理解します。これに基づいて、その人は別の「状態」に移行する「行動」を選択し、その後「報酬」を得て、このサイクルが繰り返されます。

この学習方法 (強化学習と呼ばれる) は、教師あり機械学習の従来の曲線フィッティング方法とは大きく異なります。特に、強化学習は、新しいフィードバック(アクションの実行や報酬の獲得など)がすぐに送信され、その後の決定に影響を与えるため、非常に急速に行われます。強化学習は、自動運転車や AlphaGO (チェスをプレイするロボット) で大きな成功を収めています。

強化学習では、さまざまなアクションを実行するときに現在の状態と可能な遷移確率についての信念を維持し、どのアクションが最良の結果につながるかを決定するため、予測と最適化のスムーズな統合も実現します。

ディープラーニング + 強化学習 = 人工知能

従来の機械学習技術と比較して、ディープラーニングはより強力な予測モデルを提供し、一般的に優れた予測を生成します。従来の最適化モデルと比較して、強化学習はより高速な学習メカニズムを提供し、環境の変化に対してより適応性があります。

<<:  uSens 馬 源宇: 人工知能と仮想現実が出会うとき

>>:  雲智盛 梁 嘉恩: インテリジェントインタラクション技術とモノのインターネットアプリケーション

ブログ    
ブログ    
ブログ    

推薦する

...

初心者のための NLP: 先のことを心配せずに、1 つの記事でコーパスの前処理を理解しましょう

自然言語処理は AI の最高峰であり、コーパス前処理は自然言語処理の基礎です。 [[336067]]...

ディープラーニング GPU の最も包括的な比較: コスト パフォーマンスの点で最も優れているのはどれですか?

AI に関して言えば、「GPU の混乱」を感じない人はいないでしょう。 Tensor コア、メモリ...

デジタル時代において、クラウドインテリジェンスはクラウドの未来を再定義します

[51CTO.comからのオリジナル記事] デジタル時代において、人工知能の普及はクラウドコンピュー...

テレンス・タオ氏の新論文の秘密兵器が明らかに:AIを使ってLaTeXをスムーズに書く

数学の巨匠、テレンス・タオ氏は、論文執筆ツールがついにアップグレードされたと投稿しました。以前は T...

...

オープンソースプロジェクト向けのChatGPTベースのコードレビューロボットプログラム

翻訳者 |ブガッティレビュー | Chonglouコードレビューは、現代のソフトウェア開発において重...

ユーザーエクスペリエンスは過去のものになりました。AIは国民、さらには社会の視点から問題を考える必要があります。

今日、テクノロジーの巨人とその AI ベースのデジタル プラットフォームおよびソリューションは、世界...

機械学習のアルゴリズム(2) - サポートベクターマシン(SVM)の基礎

SVM に関する論文や書籍は数多くあります。Qiang 兄弟の言葉を引用すると、「SVM は応用数学...

Google は最新の NLP モデルをオープンソース化しました。このモデルは「罪と罰」の全巻を処理できます。

Transformer は、近年 NLP 分野で注目されているモデルの 1 つです。 2017年、...

...

量子人工知能研究における課題と機会

量子コンピューティングと人工知能の融合により、大きな期待と可能性を秘めた研究の最前線である量子人工知...

Tech Neo 5月号: ディープラーニング

51CTO.com+プラットフォームは、オリジナルの技術コンテンツの選択と絶妙なレイアウトを通じて...

...