AI、機械学習、ディープラーニングの違いは何ですか?

AI、機械学習、ディープラーニングの違いは何ですか?

人工知能 (AI) は未来だと言う人もいれば、AI は SF だと言う人もいれば、AI は私たちの日常生活の一部でもあると言う人もいます。どのタイプの AI を指しているかにもよりますが、これらの評価はすべて正しいと言えるでしょう。

今年初め、Google DeepMindのAlphaGoが韓国の囲碁の名人、イ・セドルを破った。メディアがDeepMindの勝利を伝える際、人工知能(AI)、機械学習、ディープラーニングが使われました。 3人ともアルファ碁がイ・セドルに勝利するのに役割を果たしたが、彼らが語っていることは同じではない。

今日は、最も簡単な方法である同心円を使用して、3 つの関係と適用を視覚的に示します。

上の図に示すように、人工知能は最初に登場し、最も大きく最も外側の同心円でもあります。2番目は少し遅れて登場した機械学習です。最も内側にあるのは、今日の人工知能の爆発的な成長の核心的な原動力であるディープラーニングです。

1950 年代には、人工知能は大いに期待されていました。それ以来、AI のいくつかの小さなサブセットが開発されました。最初に機械学習が登場し、次にディープラーニングが登場しました。ディープラーニングは機械学習のサブセットです。ディープラーニングは前例のない影響をもたらしました。

|構想から繁栄へ

1956 年、数人のコンピュータ科学者がダートマス会議に集まり、「人工知能」の概念を提案しました。それ以来、人工知能は人々の心の中に残り、科学研究室でゆっくりと培養されてきました。その後の数十年間、人工知能は二極化してきた。人類文明の輝かしい未来の予言として歓迎されるか、技術狂の空想としてゴミ箱に捨てられるかのどちらかだ。正直に言うと、2012年までは、この2つの声が同時に存在していました。

ここ数年、特に 2015 年以降、人工知能は爆発的に成長し始めました。この大きな理由は、並列コンピューティングをより高速、安価、効率的にする GPU の普及です。もちろん、無制限のストレージ容量とデータの急激な爆発(ビッグデータ)の組み合わせにより、画像データ、テキストデータ、取引データ、マッピングデータも爆発的に増加しました。

コンピューター科学者が人工知能をその初期の構想から、毎日何億人もの人々が使用するアプリケーションにまでどのように発展させてきたかを見てみましょう。

|人工知能(AI) – 機械に人間の知能を与える

1956 年の夏の会議の頃から、人工知能の先駆者たちは、新たに登場したコンピューターを使って、人間の知能と同じ基本的な特性を持つ複雑な機械を構築することを夢見ていました。これが現在「汎用 AI 」と呼ばれているものです。この全能の機械は、私たち人間のすべての知覚(人間以上に)とすべての合理性を備えており、私たち人間のように考えることができます。

映画では、スターウォーズのC-3POのような友好的な機械や、ターミネーターのような邪悪な機械など、常にそのような機械を目にします。強い AI は未だに映画や SF の中にしか存在しませんが、その理由は理解しにくいことではありません。少なくとも今のところは、それを実現できないからです。

現在私たちが実現できるものは、一般的に「 Narrow AI 」と呼ばれています。弱い AI とは、特定のタスクを人間と同等かそれ以上に実行できるテクノロジーです。たとえば、Pinterest での画像分類や、Facebook での顔認識などです。

これらは、実際には弱い AI の例です。これらのテクノロジーは、人間の知能の特定の部分を実現します。しかし、それらはどのように達成されるのでしょうか?この情報はどこから来るのでしょうか?これで、同心円の最も内側の層である機械学習に至ります。

|機械学習 - 人工知能を実装する方法

機械学習への最も基本的なアプローチは、アルゴリズムを使用してデータを解析し、そこから学習し、現実世界の出来事について決定や予測を行うことです。特定のタスクを解決するためにハードコードされた従来のソフトウェア プログラムとは異なり、機械学習は大量のデータを使用して「トレーニング」され、さまざまなアルゴリズムを使用してデータからタスクを完了する方法を学習します。

機械学習は、人工知能の初期の分野から直接生まれました。従来のアルゴリズムには、決定木学習、帰納的論理プログラミング、クラスタリング、強化学習、ベイジアン ネットワークなどがあります。周知のとおり、強力な人工知能はまだ実現されていません。初期の機械学習手法では、弱い人工知能を実現することすらできませんでした。

機械学習の最も成功している応用分野はコンピュータービジョンですが、作業を完了するには依然として多くの手動コーディングが必要です。プログラムがオブジェクトの開始位置と終了位置を認識できるように分類子とエッジ検出フィルターを手動で記述し、検出されたオブジェクトに 8 つの側面があるかどうかを判断する形状検出プログラムを作成し、文字「ST-OP」を認識する分類子を作成する必要があります。これらの手書きの分類器を使用することで、最終的に画像を認識し、その画像が一時停止標識であるかどうかを判断するアルゴリズムを開発できるようになります。

この結果は悪くはないが、人々を興奮させるような成功ではない。特に霧がかかっていると、看板が見えにくくなったり、木々に部分的に遮られたりして、アルゴリズムが成功しにくくなります。このため、最近までコンピューター ビジョンのパフォーマンスは人間の能力に近づくことができませんでした。それはあまりにも硬直的であり、環境条件によって簡単に乱されてしまいます。

時間の経過とともに、学習アルゴリズムの開発によってすべてが変わりました。

|ディープラーニング - 機械学習を実装するための技術

人工ニューラル ネットワーク (ANN) は、初期の機械学習における重要なアルゴリズムであり、何十年にもわたる浮き沈みを経てきました。ニューラル ネットワークの原理は、互いに交差接続されたニューロンという脳の生理学的構造にヒントを得ています。しかし、脳内のニューロンが一定の距離内にある任意のニューロンに接続できるのとは異なり、人工ニューラル ネットワークには個別の層、接続、およびデータ伝播の方向があります

たとえば、画像を画像パッチに分割し、ニューラル ネットワークの最初のレイヤーに入力することができます。最初の層の各ニューロンはデータを 2 番目の層に渡します。 2 番目の層のニューロンも同様のタスクを実行し、データを 3 番目の層に渡し、最後の層までこれを繰り返して、結果を生成します。

各ニューロンは入力に重みを割り当て、この重みの正確さはニューロンが実行するタスクに直接関係します。最終的な出力はこれらの重みの合計によって決まります。

一時停止の標識を例に挙げてみましょう。一時停止標識の画像のすべての要素は、八角形の形状、消防車の赤色、鮮明で目立つ文字、交通標識の典型的なサイズと静止した動きの特性など、ニューロンによって分解され、「検査」されました。ニューラル ネットワークの役割は、それが一時停止の標識であるかどうかを結論付けることです。ニューラル ネットワークは、すべての重みに基づいて、根拠のある推測、つまり「確率ベクトル」を導き出します。

この例では、システムは次の結果を返す可能性があります: 一時停止標識である確率は 86%、速度制限標識である確率は 7%、木にぶら下がっている凧である確率は 5%、など。次に、ネットワーク構造はニューラル ネットワークにその結論が正しいかどうかを伝えます。

この例もかなり高度だと考えられます。最近まで、ニューラル ネットワークは AI コミュニティではほとんど忘れられていました。実際、ニューラル ネットワークは人工知能の初期の頃から存在していましたが、「知能」への貢献はごくわずかでした。主な問題は、最も基本的なニューラル ネットワークでも大量の計算が必要になることです。ニューラル ネットワーク アルゴリズムの計算要求を満たすのは困難です。

しかし、トロント大学のジェフリー・ヒントン氏に代表される熱心な研究チームもまだ存在し、彼らは研究を粘り強く続け、スーパーコンピューティングを目標とした並列アルゴリズムの動作と概念の証明を達成しました。しかし、GPU が広く使用されるようになるまで、これらの取り組みは実を結びませんでした。

一時停止標識の認識の例に戻りましょう。ニューラル ネットワークは調整され、トレーニングされるため、時々間違いを起こす傾向があります。最も必要なのは訓練です。ニューロン入力の重みが非常に正確に調整されるまで、霧、晴れ、雨に関係なく毎回正しい結果が得られるよう、トレーニングには数百、数千、あるいは数百万枚の画像が必要です。

そうして初めて、ニューラル ネットワークが一時停止標識の外観を自己学習することに成功した、あるいは Facebook アプリケーションでニューラル ネットワークがあなたの母親の顔を自己学習した、あるいは 2012 年に Google の Andrew Ng 教授が猫の外観を学習するニューラル ネットワークを実装した、などと言えるようになります。

ウー教授の画期的な成果は、これらのニューラル ネットワークの規模を根本から大幅に拡大したことです。多数のレイヤーとニューロンがあり、ネットワークをトレーニングするために大量のデータがシステムに入力されます。ウー教授の場合、データは1000万本のYouTube動画からの画像です。ウー教授はディープラーニングに「ディープ」という言葉を加えました。ここでの「深さ」とは、ニューラル ネットワーク内の多数の層を指します

現在、ディープラーニングでトレーニングされた画像認識は、猫の識別から血液中の癌の初期成分の識別、MRI での腫瘍の識別まで、いくつかのシナリオでは人間よりも優れた結果を出すことができます。 Google の AlphaGo は、まず囲碁の遊び方を学習し、その後自分自身と対戦することでトレーニングしました。ニューラル ネットワークをトレーニングする方法は、止まることなく自分自身とチェスを何度も繰り返しプレイし続けることです。

|ディープラーニングは人工知能に明るい未来をもたらす

ディープラーニングは機械学習のさまざまな応用を可能にし、人工知能の範囲を拡大します。ディープラーニングはさまざまなタスクを非常に簡単に達成し、機械支援によるあらゆる機能が可能になったかのようです。自動運転車、予防医療、さらにはより良い映画の推薦など、すべてがもうすぐ実現するか、あるいは実現しそうです。

人工知能は今ここにあり、そして明日もある。ディープラーニングにより、人工知能は私たちが想像するSFのレベルにまで到達することができます。 C-3PO は私が引き取ります。あなたにはターミネーターしかありません。

<<:  Python 向けトップ 3 機械学習ライブラリ

>>:  人工知能はプログラムを記述するためにコードを「盗む」ほど賢いが、プログラマーは職を失うことを心配する必要はない

推薦する

...

中学校の知識を使って機械学習が何をしているのかを理解する方法

[[333000]]序文Baidu 百科事典で「機械学習」を検索すると、私が決して到達できないレベル...

...

機械学習のための数学をどのように学ぶのでしょうか?

機械学習では数学が非常に重要です。アルゴリズムにおけるモデルコードの理解と、エンジニアリングにおける...

ロボット開発で人気の言語:不滅のJava、不滅のC/C++、そして新興のPython

プログラミング言語は流行ったり廃れたりするものですが、Java と C/C++ は変わりません。 [...

AAAI2018にはアリババからの11の論文が収録され、6人の著者がメインカンファレンスでプレゼンテーションを行うよう招待されました。

2018年の初め、アリババは人工知能の分野での最新の成果を発表しました。人工知能に関するトップ学術...

小さなモデル、大きなトレンド! Googleは2つのモデルを提案した。音量は7倍に減少し、速度は10倍に増加する。

[[426899]]ニューラル ネットワーク モデルとトレーニング データのサイズが大きくなるにつ...

ロボティック・プロセス・オートメーション技術の需要が急増

Adroit Market Research によると、世界のロボットプロセス自動化技術市場は 20...

画像ベースの AI プロジェクト用のデータセットを準備する 7 つのステップ

翻訳者 |陳俊レビュー | Chonglouご存知のとおり、データセットはおそらく機械学習プロジェク...

...

データ構造フレームワークの考え方を理解すると、すべてのアルゴリズムは単なる張り子の虎に過ぎない

1. データ構造の保存方法データ構造を保存する方法は、配列 (順次ストレージ) とリンク リスト (...

...

インテリジェント運転システムの欠陥解決策の詳細な分析

従来の自動車と比較して、自動運転車は、車両が乗客を安全に目的地まで輸送できるかどうかという実用的な目...

Llama3は7月にリリースされます!現在微調整中です!

編纂者 | Yan Zheng制作:51CTO テクノロジースタック(WeChat ID:blog)...