過去数年間、ディープラーニングは、従来の機械学習を凌駕し、ほとんどの AI 型の問題に対する頼りになる技術になりました。その明白な理由は、ディープラーニングが、音声、自然言語、視覚、ゲームプレイなど、さまざまなタスクで優れたパフォーマンスを繰り返し実証してきたからです。ただし、ディープラーニングのパフォーマンスが高いにもかかわらず、大規模なディープネットワークではなく、従来の機械学習と線形回帰または決定木を使用する方がよい特定のケースがまだいくつかあります。 この記事では、ディープラーニングと従来の機械学習技術を比較します。そうすることで、両方のテクノロジーの長所と短所、そしてそれらがどこでどのように普及しているかを特定します。
ディープラーニング > 従来の機械学習 最高のパフォーマンス: ディープ ネットワークは、音声、自然言語、視覚、ゲーム プレイなど多くの分野において、従来の ML 手法をはるかに上回る精度を実現しています。多くのタスクでは、従来の ML では競争することすらできません。たとえば、下の図は、ImageNet データセットにおけるさまざまな方法による画像分類の精度を示しています。青は従来の ML 方法、赤は深層畳み込みニューラル ネットワーク (CNN) 方法を表しています。 データに応じて効率的に拡張: ディープ ネットワークは、従来の ML アルゴリズムよりも多くのデータに応じて適切に拡張されます。下の図はシンプルですが効果的な例です。多くの場合、より深いネットワークで精度を向上させるための最善のアドバイスは、より多くのデータを使用することです。従来の ML アルゴリズムでは、この迅速かつ簡単な修正はほとんど機能せず、精度を向上させるにはより洗練された方法が必要になることがよくあります。 特徴エンジニアリングは不要: 従来の ML アルゴリズムでは通常、複雑な特徴エンジニアリングが必要です。まず、データセットに対して詳細な探索的データ分析を実行し、その後に単純な次元削減を実行します。 ***、*** 機能は、ML アルゴリズムに渡すために慎重に選択する必要があります。ディープ ネットワークを使用する場合、通常はデータを直接ネットワークに渡すだけで良好なパフォーマンスが得られるため、これは必要ありません。これにより、プロセス全体における大規模で困難な機能エンジニアリング フェーズが完全に排除されます。 高い適応性と容易な変換: 従来の ML アルゴリズムと比較して、ディープラーニング技術はさまざまな分野やアプリケーションに簡単に適応できます。まず、転移学習により、事前トレーニング済みのディープ ネットワークを同じドメイン内のさまざまなアプリケーションに効果的に適応できるようになります。 たとえば、コンピューター ビジョンでは、事前トレーニング済みの画像分類ネットワークが、オブジェクト検出およびセグメンテーション ネットワークの特徴抽出フロントエンドとしてよく使用されます。これらの事前トレーニング済みのネットワークをフロントエンドとして使用すると、モデル全体のトレーニングが容易になり、より短時間でより高いパフォーマンスを実現できるようになります。さらに、さまざまな分野で使用されているディープラーニングの基本的な考え方や手法は、多くの場合、転用可能です。 たとえば、音声認識の分野における基礎となるディープラーニング理論を理解すれば、基礎知識が非常に似ているため、ディープネットワークを自然言語処理に適用する方法を学ぶことはそれほど難しくありません。これは従来の ML には当てはまりません。高性能な ML モデルを構築するには、ドメイン固有およびアプリケーション固有の ML テクニックと機能エンジニアリングが必要です。従来の ML の知識ベースはドメインやアプリケーションによって大きく異なり、多くの場合、各領域ごとに広範囲にわたる専門的な研究が必要になります。 従来の機械学習 > ディープラーニング 小規模データに最適: 高いパフォーマンスを実現するには、ディープ ネットワークに非常に大きなデータセットが必要です。前述の事前トレーニング済みネットワークは、120 万枚の画像でトレーニングされました。多くのアプリケーションでは、このような大規模なデータセットを入手するのは容易ではなく、入手には費用と時間がかかります。データセットが小さい場合、従来の ML アルゴリズムはディープ ネットワークよりも優れたパフォーマンスを発揮することがよくあります。 コストと計算コストが安価: ディープ ネットワークでは、大量のデータを妥当な時間でトレーニングするためにハイエンドの GPU が必要です。これらの GPU は非常に高価ですが、これらがなければ、ディープ ネットワークをトレーニングして高いパフォーマンスを達成することは実際には不可能です。このようなハイエンド GPU を効果的に使用するには、高速な CPU、SSD ストレージ、高速で大容量の RAM も必要です。従来の ML アルゴリズムは、最先端のハードウェアを必要とせず、適切な CPU だけで十分にトレーニングできます。計算コストが高くないため、より高速に反復処理を実行し、より短時間でさまざまな手法を試すことができます。 理解しやすい: 従来の ML には直接的な特徴エンジニアリングが組み込まれているため、これらのアルゴリズムは説明しやすく理解しやすいです。さらに、データと基礎となるアルゴリズムの両方をより完全に理解できるため、ハイパーパラメータを調整したり、モデル設計を変更したりすることが容易になります。一方、ディープネットワークは「ブラックボックス」型であり、現在でも研究者はディープネットワークの「内部」を完全に理解することはできません。理論的基礎が不足しているため、ハイパーパラメータとネットワーク設計も大きな課題となっています。 |
<<: [ディープラーニングシリーズ] PaddlePaddleとTensorflowによる画像分類
>>: 大学は人工知能人材育成に力を入れており、「ロボット工学」専攻が人気に
データ サイエンスでは、AI 研究者は不完全なデータセットを処理するという課題にしばしば直面します。...
今年の AI スタートアップ リストには、AI 音声アシスタントを構築するためのコード不要の Web...
[[407368]]今の世界は30年前とは大きく異なります。この変化の理由の一部は技術の発展です。今...
人工知能は急速に発展していますが、問題も頻繁に発生しています。 OpenAI の新しい GPT ビジ...
[[436583]] [51CTO.com クイック翻訳]人工知能という用語は、20 世紀半ばに生ま...
これまで、AI への投資のほとんどは、大規模なデータセンター内でテクノロジーを実行することに重点を置...
人工知能の黄金時代を迎え、画像合成技術はかつてない速さで発展しています。単純な画像編集から複雑なシー...
スマートテレビやスマート冷蔵庫からスマートフォンやスマート音声デバイスまで、モノのインターネット (...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...