まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

まだ AI と機械学習を混同していませんか?まず、AIの6つの注目分野を見てみましょう。

AI の初心者向けに、AI の注目すべき 6 つの分野と、その概要、重要性、現在の使用方法、研究している企業について説明します。

[[184083]]

1. 強化学習

RL は、人間が新しいタスクを学習する方法にヒントを得た、試行錯誤による学習パラダイムです。一般的な RL 設定では、AI に、デジタル環境における現在の状態を観察し、環境から各アクションの結果を受け取り、アクションが進捗を促進するか妨げるかを AI が認識できるように動機付けのフィードバックを与えるというタスクが与えられます。したがって、AI は報酬を得るための最善の戦略を見つける必要があります。 Google の DeepMind はこのアプローチを採用しています。 RL の実際の例としては、Google のデータ センターの冷却エネルギー効率を最適化するタスクがあります。このタスクでは、1 つの RL システムによって冷却コストが 40% 削減されました。シミュレート可能な環境 (ビデオゲームなど) で RL を使用する利点は、トレーニング データを非常に安価に生成できることです。これは、通常、高価で現実世界から入手するのが難しいトレーニング データを必要とする教師ありディープラーニング タスクとはまったく対照的です。

アプリケーション: 複数の AI が独自の環境で学習または相互作用する、同じ環境で相互に学習する、迷路や街路などの 3D 環境をナビゲートする方法を学習する自動運転、観察された動作を学習タスクの目標 (運転の学習など) に一般化する逆強化学習。

企業: Google DeepMind、Prowler.io、Osaro、MicroPSI、Maluuba/Microsoft、NVIDIA、Mobileye。

2. 生成モデル

分類や回帰タスクに使用される識別モデルとは対照的に、生成モデルはトレーニング例に対して確率分布を学習します。この高次元分布からサンプリングすることにより、生成モデルはトレーニング データに類似した新しい例を出力します。これは、たとえば、実際の顔画像でトレーニングされた生成モデルが、顔に似た新しい合成画像を出力できることを意味します。これらのモデルの動作の詳細については、Ian Goodfellow の素晴らしい NIPS 2016 チュートリアルを参照してください。彼は、教師なし学習への道を提供するアーキテクチャ、Generative Adversarial Networks (GAN) を紹介しました。 GAN には 2 つのニューラル ネットワークがあります。1 つはランダム ノイズを入力として受け取り、コンテンツ (画像など) を合成するジェネレーター、もう 1 つは実際の画像がどのように見えるかを学習し、画像が本物か偽物かを識別するディスクリミネーターです。敵対的トレーニングは、生成された画像と実際の画像を識別器が区別できなくなるようにする方法を機械が反復的に学習しなければならないゲームと考えることができます。このフレームワークは、多くのデータ モデルとタスクに拡張されています。

アプリケーション: 時系列の可能性のある未来をシミュレートする (強化学習の計画タスクなど)、超解像度画像、2D 画像を 3D 構造に復元する、小さなラベル付きデータセットから一般化する、1 つの入力から複数の正しい出力を生成する (ビデオの次のフレームを予測するなど)、会話型インターフェース用の自然言語を作成する、すべてのラベルを半教師あり学習できない場合、芸術的なスタイルの転送、音楽やサウンドの合成。

企業: Twitter、Adobe、Apple、Prisma、Jukedeck、Creative.ai、Gluru、Mapillary、Unbabel。

3. メモリストレージを備えたネットワーク

AI システムがさまざまな現実世界の環境にわたって一般化するには、新しいタスクを継続的に学習し、将来のすべてのタスクの実行方法を記憶できる必要があります。しかし、従来のニューラル ネットワークは一般にそのような学習を実行できず、これは破滅的忘却と呼ばれる欠点があります。これは、ネットワークがタスク B を解決するようにトレーニングされると、タスク A を解決するためのネットワーク内の重みが変化するため発生します。

ただし、時系列の処理と予測が可能な Long Short-Term Memory Networks (リカレント ニューラル ネットワークのバリエーション) など、ニューラル ネットワークにさまざまなレベルのメモリを付与できる強力なアーキテクチャがいくつかあります。ニューラルネットワークとストレージシステムを組み合わせた DeepMind のマイクロニューラルコンピュータは、独自の複雑なデータ構造を学習してナビゲートすることができます。

アプリケーション: 新しい環境に一般化可能、ロボットアームの制御タスク、自動運転、時系列予測 (金融市場、ビデオ、IoT など)、自然言語理解と次の単語の予測。

企業: Google DeepMind、NNaisense、SwiftKey/Microsoft Research、Facebook AI Research。

4. より少ないデータで学習し、より小さなモデルを構築する

ディープラーニング モデルに関して注目すべき点の 1 つは、大量のトレーニング データが必要になることです。大規模なトレーニング データがなければ、ディープラーニング モデルは最適な設定に収束せず、音声認識や機械翻訳などの複雑なタスクのパフォーマンスが低下します。このデータ要件は、音声の生のオーディオ録音を入力として受け取り、音声のテキスト転写を出力するなど、単一のニューラル ネットワークを使用してエンドツーエンドで問題を解決する場合にのみ増加します。

トレーニング データが不足し、コストがかかり、時間がかかる問題を AI で解決したい場合は、より少ない例から最適なソリューションを学習できるモデル (つまり、1 ベースまたは 0 ベースの学習) を開発する必要があります。小さなデータセットでトレーニングする場合、オーバーフィッティング、外れ値の処理の難しさ、トレーニングとテスト間のデータ分布の違いなどの課題が発生します。もう一つのアプローチは転移学習です。

アプリケーション: 最初に大規模なラベル付きトレーニング データでトレーニングされた深層ネットワークのパフォーマンスを模倣するために浅いネットワークをトレーニングする方法の学習、パラメーターは少ないがパフォーマンスは同等の深層モデル アーキテクチャ (例: SqueezeNet)、機械翻訳。

企業: Geometric Intelligence/Uber、DeepScale.ai、Microsoft Research、Google、Bloomsbury AI。

5. トレーニング用ハードウェア

AI の進歩の大きなきっかけとなったのは、大規模なニューラル ネットワーク モデルのトレーニングにグラフィックス プロセッシング ユニット (GPU) を再利用したことです。順次計算する中央処理装置 (CPU) とは異なり、GPU は複数のタスクを同時に処理できる超並列アーキテクチャを提供します。ニューラル ネットワークは大量の (多くの場合、高次元の) データを処理する必要があるため、GPU でのトレーニングは CPU よりもはるかに高速です。これが、NVIDIA が近年非常に人気になった理由です。

ただし、GPU は AI のトレーニング用に特別に設計されているわけではなく、ビデオやゲームのグラフィックをレンダリングするために作られています。 GPU の高い計算精度は必要なく、メモリ帯域幅とデータ スループットの問題があります。これにより、スタートアップ企業には、高次元の機械学習アプリケーション向けに特別に設計されたチップを作成する機会が生まれます。メモリ帯域幅の拡大、コンピューティング密度の向上、効率性、ワットあたりのパフォーマンスの向上を実現した新しいチップによって改善が実現します。これにより、より高速で効率的なモデルトレーニング → より優れたユーザーエクスペリエンス → ユーザーと製品の迅速な反復 → より大きなデータセットの作成 → 最適化によるモデルパフォーマンスの向上が可能になります。

アプリケーション: モデルの高速トレーニング (特にグラフ)、予測を行う際のエネルギーとデータ効率の向上、AI システムを実行する IoT デバイス、IaaS、自動運転、ドローン、ロボット。

企業: Graphcore、Cerebras、Isocratic Engineering、Google (TPU)、NVIDIA (DGX-1)、Nervana Systems (Intel)、Movidius (Intel)、Scortex

6. シミュレーション環境

前述したように、AI システムのトレーニング データを生成することは、多くの場合困難です。さらに、AI が現実世界で役立つためには、多くの状況に一般化する必要があります。したがって、現実世界を模倣した物理学と動作を開発することは、AI をトレーニングするための優れた環境を提供します。これらの環境は、生のピクセルを AI に提示し、AI は設定された(または学習された)目標を達成するためにアクションを実行します。トレーニングでは、これらのシミュレーション環境は、AI システムがどのように学習し、それをどのように改善するかを理解するのに役立ちますが、実際のアプリケーションに転送できる可能性のあるモデルも提供します。

用途: 運転の学習、製造、工業デザイン、ゲーム開発、スマート シティ。

<<:  ディープラーニングの未来に関する6つの予測

>>:  14,000元の費用でディープラーニングサーバーを自分で構築するにはどうすればいいでしょうか?

ブログ    
ブログ    

推薦する

原理、コード、デモを備えたこのアルゴリズム リソースは人気を博しています。 GitHub で 2900 以上のスターを獲得

最近、GitHub で非常に包括的なアルゴリズム リソースが人気を集めています。対応する原理の紹介と...

...

国宝の旅:人工知能技術が文化遺産の病気を防ぐ方法

一日で世界三大博物館を訪れ、数千年前の国宝を自分の手で触り、さらには1300年前の繁栄した唐王朝にタ...

新しい研究:医療AIが新たな統合失調症患者の治療効果をほぼ盲検で評価

1月12日、新たな研究により、統合失調症患者の治療で医師を支援するために使用されるコンピューターアル...

AIは奥が深いので、早く田舎へ行きましょう

昨年末、「運命を変えるスクリーン」が話題になった。当時、賛成派も反対派もそれぞれ多くの見解を述べてい...

AIカンファレンスは数多くあるが、私たちは違う

[51CTO.com からのオリジナル記事] テクノロジーが国の基盤であるならば、人工知能は将来の技...

世界初の「サイボーグ」が死んだ!さようなら、ピーター 2.0

2020年、ピーター・スコット・モーガン博士はインターネットで話題になりました。人気の検索タイトル...

プログラマー試験ノート4: ソートアルゴリズム

理由はよく分かりませんが、WORD ファイル内のすべての日付が変更されました。WORD マクロ ウイ...

アダプティブコンピューティングがAI製品化の課題にどのように対処するか

[[389356]]今日、人工知能技術は急速に発展しており、イノベーションのペースは加速しています。...

RPAは人工知能の究極の発展方向でしょうか?

ロボティック・プロセス・オートメーション (RPA) は、単調で反復的なタスクを排除するのでしょうか...

2019年、小売業界はこれら10のテクノロジーによって革命を起こすでしょう。

[[252097]] 2013年から2018年にかけて、AI + 小売業の新興企業は374件の取引...

顔認識は簡単に破られるのでしょうか?虐待と闘う方法

未来産業研究所は、顔認識市場規模は今後5年間で平均23%の複合成長率を維持し、2024年までに市場規...

...

2019年のAI業界の再編:疑似AI企業は淘汰される

起業プロジェクトの数、資金調達額、資金調達のスピードなど、AIは近年間違いなく注目の産業です。しかし...

李開復氏はAIバブルが年末までに崩壊すると予測、ルクン氏:それは本当だ

[[218838]] Innovation Works の創設者である Kai-Fu Lee 氏は、...