人工知能は新しい用語ではなく、その開発の歴史は数十年にわたります。それは 1980 年代初頭に、コンピューター科学者が人間の行動を学習し模倣できるアルゴリズムを設計したときに始まりました。学習という点では、最も重要なアルゴリズムはニューラルネットワークですが、モデルが強力すぎることと、それをサポートするデータが不足していることから、あまり成功していません。しかし、データを使用して関数を適合させるというアイデアは、より具体的なタスクでは非常に成功しており、機械学習の基礎を形成しています。模倣の面では、AI は画像認識、音声認識、自然言語処理など幅広い分野で応用されています。専門家は、エッジ コンピューティング、カラー プロファイル、N グラム言語モデル、構文ツリーなどの作成に多くの時間を費やしましたが、結果は平凡なものでした。 従来の機械学習 機械学習 (ML) 技術は予測において重要な役割を果たします。機械学習は多くの世代を経て、次のような完全なモデル構造を備えています。
各予測モデルは特定のアルゴリズム構造に基づいており、そのパラメータは調整可能です。予測モデルのトレーニングには、次の手順が含まれます。 1. モデルアーキテクチャ(ロジスティック回帰、ランダムフォレストなど)を選択します。 2. モデルにトレーニング データ (入力と出力) を入力します。 3. 学習アルゴリズムは最適なモデル(つまり、トレーニング エラーを最小限に抑える特定のパラメーターを持つモデル)を出力します。 各モデルには独自の特性があり、一部のタスクでは優れたパフォーマンスを発揮しますが、他のタスクではそうではありません。しかし、一般的に言えば、低電力(シンプル)モデルと高電力(複雑)モデルに分けることができます。異なるモデルの中から選択するのは非常に難しい問題です。従来、次の理由により、高電力/複雑なモデルを使用するよりも、低電力/シンプルなモデルを使用する方が優れています。 処理能力が十分に備わる前は、高性能モデルのトレーニングには長い時間がかかりました。 膨大な量のデータが得られるまで、高出力モデルをトレーニングすると、過剰適合の問題が発生します (高出力モデルはパラメーターが豊富で、複数のデータの形状に適応できるため、将来のデータを予測するのではなく、現在のトレーニング データに非常に関連性の高いモデルをトレーニングしてしまう可能性があります)。 ただし、低パワー モデルを選択すると、モデル構造が単純すぎるため、より複雑な状況でのトレーニング データに適応できない、いわゆる「アンダーフィッティング」問題が発生します。 (次のデータに y = 5*X の 2 乗という二次関係があるとします。A と B を何に選択しても、y = A、B、B、B という線形回帰を当てはめる方法はありません。) 「アンダーフィット問題」を軽減するために、データ サイエンティストは多くの場合、「ドメイン知識」を適用して、出力とより直接的な関係を持つ「入力機能」を生成します。 (たとえば、y=5*X の 2 乗という二次関係に戻り、a=5 および b=0 を選択して線形回帰を適合します。 機械学習における大きなハードルは、この特徴エンジニアリングのステップであり、トレーニング プロセスに入る前にドメインの専門家が重要なシグナルを識別する必要があります。特徴エンジニアリングのステップは非常に手作業が多く、多くのドメイン専門知識を必要とするため、今日のほとんどの機械学習タスクの主なボトルネックになっています。言い換えれば、十分な処理能力と十分なデータがない場合、低電力/シンプルなモデルを使用する必要があり、適切な入力機能を作成するために多くの時間と労力を費やす必要があります。ほとんどのデータ サイエンティストが時間を費やしているのはこのことです。 ニューラルネットワークの回帰 2000 年代初頭、ビッグデータ時代のきめ細かいイベントデータが大量に収集されるようになり、クラウド コンピューティングや超並列処理インフラストラクチャの進歩により、マシン処理能力が大幅に向上しました。低電力/シンプルなモデルに限定されなくなりました。たとえば、現在最も人気のある機械学習モデルの 2 つは、ランダム フォレストと勾配ブースティング ツリーです。ただし、これらはすべて非常に強力であり、トレーニング データに非線形モデル フィッティングを提供しますが、データ サイエンティストは優れたパフォーマンスを実現するために機能を慎重に作成する必要があります。 その一方で、コンピューター科学者は、人間のようなタスクを実行するために、多くの層を持つニューラル ネットワークを再利用してきました。これは、画像分類および音声認識タスクにおける新しく誕生した DNN (ディープ ニューラル ネットワーク) にとって大きな進歩となります。 DNN との主な違いは、ドメイン固有の入力機能を作成せずに、生の信号 (RGB ピクセル値など) を直接 DNN に送信できることです。複数のニューロン層(これが「ディープ」ニューラル ネットワークと呼ばれる理由です)を通じて、各層を通過する対応する特徴を自動的に生成し、*** 優れた予測を提供できます。これにより、データ サイエンティストが直面する大きなボトルネックである「特徴エンジニアリング」にかかる労力が大幅に軽減されます。 DNN はさまざまなネットワーク構造に進化しており、CNN (畳み込みニューラル ネットワーク)、RNN (リアル ネットワーク)、LSTM (長期短期記憶)、GAN (敵対的生成ネットワーク)、転移学習、注意モデルなどがあります。この範囲全体は「ディープラーニング」と呼ばれ、現在、機械学習コミュニティ全体の焦点となっています。 強化学習 もう一つの重要な部分は、学習するためにどのように人(または動物)を模倣するかということです。知覚/行動/報酬のサイクルという非常に自然な動物の行動を想像してみてください。人間や動物は、まず自分がどのような状態にあるかを感知することによって、環境を理解します。これに基づいて、その人は別の「状態」に移行する「行動」を選択し、その後「報酬」を得て、このサイクルが繰り返されます。 この学習方法 (強化学習と呼ばれる) は、教師あり機械学習の従来の曲線フィッティング方法とは大きく異なります。特に、強化学習は、新しいフィードバック(アクションの実行や報酬の獲得など)がすぐに送信され、その後の決定に影響を与えるため、非常に急速に行われます。強化学習は、自動運転車や AlphaGO (チェスをプレイするロボット) で大きな成功を収めています。 強化学習では、さまざまなアクションを実行するときに現在の状態と可能な遷移確率についての信念を維持し、どのアクションが最良の結果につながるかを決定するため、予測と最適化のスムーズな統合も実現します。 ディープラーニング + 強化学習 = 人工知能 従来の機械学習技術と比較して、ディープラーニングはより強力な予測モデルを提供し、一般的に優れた予測を生成します。従来の最適化モデルと比較して、強化学習はより高速な学習メカニズムを提供し、環境の変化に対してより適応性があります。 |
<<: uSens 馬 源宇: 人工知能と仮想現実が出会うとき
>>: 雲智盛 梁 嘉恩: インテリジェントインタラクション技術とモノのインターネットアプリケーション
現在、AI チップ市場全体はディープラーニングを中心に展開しています。ディープラーニング (DL) ...
Hello Mobilityの非電動車両安全管理システム持続可能な交通の専門企業Hellobikeは...
...
人工知能は、世界中の組織において情報に基づいた意思決定を行うための重要なツールとなっています。人工知...
[[205745]] MLlib は、機械学習のエンジニアリング実践を簡素化し、大規模への拡張を容...
2019年へのカウントダウンが始まり、今年はAIの発展に関する議論がたびたび取り上げられています。 ...
[[321682]] [51CTO.com クイック翻訳] 多くの新しいソフトウェアを実装する場合と...
[[388829]]まず質問を見てみましょうシーケンス{1,3,6,8,10,14}を二分木に構築...
バード家のバケツがついに登場! Bard は今年 3 月にリリースされ、6 か月後、ようやく独自のプ...
GoogleがモバイルファーストではなくAIファーストを語り、テンセントがAIをあらゆるものに取り入...
AI を取り巻く大騒ぎを考えると、フォーチュン 500 企業が必死になって LLM を実用化し、アメ...
[[413820]]グラフは、ソーシャル ネットワークからバイオインフォマティクス、ロボット工学の...
[[437828]]今日は、Google の自動運転車 Waymo がどのようにそれを実現するかを見...
現在までに、C. elegans (ニューロン数 302) から Drosophila (ニューロン...
[[206602]]デフォルトの損失関数は当然使用される始めたばかりのときは、損失関数として平均二乗...