強化学習アルゴリズムの分類をさまざまな観点から理解します

強化学習アルゴリズムの分類をさまざまな観点から理解します

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)から転載したものです。

この記事では、強化学習アルゴリズムの分類を紹介し、さまざまな観点からいくつかの分類を検討します。さっそく、深呼吸して、一緒に RL アルゴリズムの分類を学びましょう。

[[355287]]

モデルフリー vs. モデルベース

モデルフリー分類とモデルベース分類 [画像出典: 著者、OpenAI Spinning Up による再作成]

RL アルゴリズムを分類する 1 つの方法は、エージェントが環境のモデルにアクセスできるかどうかを尋ねることです。言い換えれば、環境がエージェントのアクションに反応するかどうかを尋ねます。この見解に基づくと、RL アルゴリズムにはモデルフリーとモデルベースの 2 つの分野があります。

  • モデル RL アルゴリズムは、学習した環境のモデルに基づいて最適なポリシーを選択します。
  • モデルフリー RL アルゴリズムは、エージェントを繰り返しテストすることで最適なポリシーを選択します。

次の表に示すように、両方のアルゴリズムにはそれぞれ長所と短所があります。

価値ベースとポリシーベース

RL アルゴリズムを分類する別の方法は、アルゴリズムが価値関数を最適化するのか、ポリシーを最適化するのかを考えることです。詳しく説明する前に、まず戦略と価値の機能について理解しましょう。

(1)戦略

ポリシー π は状態 s からアクション a へのマッピングです。ここで、π(a|s) は状態 s でアクション a を実行する確率です。戦略は決定論的なものでもランダムなものでもかまいません。

非常に単純なゲーム「じゃんけん」をプレイしているとします。このゲームでは、2 人のプレイヤーが 3 つのアクション (グー、チョキ、パー) のうち 1 つを同時に実行して勝敗を競います。ルールは簡単です:

  • はさみと布
  • グー vs ハサミ
  • ブッカー・ストーン

戦略を反復的なじゃんけんと考える

  • 決定論的な戦略は簡単に利用できます。あなたがより多くの「石」をプレイしていることに気付いた場合、私はこれを有利に利用してより大きな勝利を得ることができます。
  • 均一なランダム ポリシーが最適です。選択が完全にランダムである場合、勝つためにどのようなアクションを実行すればよいかわかりません。

(2)価値関数

価値関数は、将来の報酬 (戻り値) の予測に基づいて状態がどの程度優れているかを測定する関数です。戻り値 (Gt) は基本的に、「割引」された戻り値 (時刻 t 以降) の合計に等しくなります。


γ∈[0,1]は割引係数です。割引率は、いくつかの理由により将来の収益を相殺することを目的としています。

  • 便利な数学計算
  • 状態変化図における無限ループの解消
  • 将来の収益に関する不確実性が高い(株価の変動など)
  • 将来の報酬はすぐには利益にならない(例えば、人々は10年後よりも今楽しみを味わうことを好む)

戻り値の概念を理解したところで、値関数の数学的形式を定義しましょう。

価値関数には 2 つの数学的形式があります。


状態アクション価値関数 (Q 値) は、時刻 t における状態とアクションの組み合わせの期待される戻り値です。


Q値と価値関数の違いは、アクションアドバンテージ関数(A値と呼ばれることが多い)です。


これで、価値関数とアクション状態価値関数が何であるかがわかりました。次に、アルゴリズムが最適化するコンポーネントに重点を置いた RL アルゴリズムの別の分野について詳しく学習します。

価値アルゴリズムと戦略アルゴリズム [画像ソース: 著者、David Silver RL コースの再現]

  • 価値強化学習は、価値/アクション価値関数を学習して最適なポリシーを生成する(つまり、暗黙的に最適なポリシーを生成する)ことを目的としています。
  • ポリシー RL は、パラメータ化された関数を使用してポリシーを直接学習することを目的としています。
  • Actor-Critic RL は価値関数とポリシーの両方を学習することを目的としています。

次の表は、価値アルゴリズムと戦略アルゴリズムの長所と短所を示しています。


  • 価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択する必要があります。アクション空間が非常に高次元または連続的である場合、これは非常にコストがかかる可能性があります。一方、ポリシー アルゴリズムは、最大化計算を実行せずにポリシーのパラメーターを直接調整することによって動作します。
  • 値アルゴリズムは、適切に実行されない場合、多くの問題が発生する可能性があります (収束特性が低い/不安定)。一方、ポリシー アルゴリズムは、ポリシー勾配に小さな増分変更のみを加えるため、より安定しており、収束特性が優れています。
  • ポリシー アルゴリズムは決定論的ポリシーと確率論的ポリシーの両方を学習できますが、値アルゴリズムは決定論的ポリシーのみを学習できます。
  • 価値アルゴリズムと比較すると、元の戦略アルゴリズムは遅く、分散が大きくなります。価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択しようとします。これにより、ポリシーが最適化されます (操作が高速化され、分散が小さくなります)。一方、ポリシー アルゴリズムは、数ステップしか実行せず、スムーズかつ安定して更新されますが、同時に効率が低く、分散が大きくなることがあります。
  • ポリシー アルゴリズムは通常、グローバル最適値ではなくローカル最適値に収束します。

戦略的アルゴリズムと非戦略的アルゴリズム

RL アルゴリズムを分類する別の方法は、戦略ソース分類に基づいています。


戦略アルゴリズムは「実践しながら学ぶ」ものであると言えます。つまり、アルゴリズムは π からサンプリングされた経験からポリシー π を学習しようとします。非ポリシー アルゴリズムは「監視」によって機能します。言い換えれば、アルゴリズムは、μ によってサンプリングされた経験からポリシー π を学習しようとします。たとえば、ロボットは人間の行動を観察して操作方法を学習します。

<<:  ビデオ通話の低品質なビデオとはおさらば: NVIDIA の新しいアルゴリズムはトラフィックを最大 90% 圧縮できます

>>:  2020年Qizhi開発者会議が北京で盛大に開幕、第一弾の1000万インセンティブボーナスが発表された

ブログ    

推薦する

強力な暗号化アルゴリズムによる SQL インジェクション事例

暗号化には、情報の機密性などさまざまな利点があります。ただし、アプリケーションのセキュリティを確保す...

Swin TransformerとDCNの融合、変形可能なアテンションTransformerモデルはほとんどのViTを上回る

Transformer は最近、さまざまな視覚タスクで優れたパフォーマンスを発揮しており、受容野によ...

グーグルは、人工知能の進歩により飛行機による地球温暖化への影響を大幅に軽減できると主張

グーグルは8月14日、飛行機による気候への影響を大幅に軽減できる人工知能の分野で大きな進歩を遂げたと...

AI と SEO の組み合わせ: 祝福か呪いか?

検索エンジンは誕生以来、基本的な検索エージェントから人工知能 (AI) と機械学習 (ML) に基づ...

オプティマイザーを選択するにはどうすればいいですか?この記事では、さまざまなMLプロジェクトに適したオプティマイザーを選択する方法を説明します。

機械学習プロジェクトに適したオプティマイザーを選択するのは簡単な作業ではありません。オプティマイザー...

2020年のロボットとドローンに関する7つの予測

IDCの最新予測によると、ロボットシステムとドローンへの総支出は2020年に1,287億ドルに達し、...

自然言語処理がデータ分析の世界をどう変えるか

【51CTO.com クイック翻訳】自然言語処理 (NLP) は、コンピューターが人間の自然な言語を...

...

...

CV退化!心理学者が顔認識を学び、世界中の表情を区別するために600万本のビデオを訓練

世界中の人々は笑ったり悲しんだりするときに同じ表情をしますか? [[402741]]人々の表情が一貫...

AIツールClaude 2が世界中で利用可能に:ファイルのアップロードとより長い応答テキストをサポート

10月18日、Anthropicは今年7月に新しいClaude 2言語モデルをリリースしました。 C...

Nature: 地域や文化を超えて、AIはすべての人間に共通する16の表情を認識する

人々の間には大きな違いがしばしばありますが、私たちの存在にはほぼすべての人に共通する要素が数多くあり...

GPT-4が「愚か」になったと誰もが不満を言っていますが、これはアーキテクチャの再設計が原因かもしれません。

OpenAI が GPT-4 を最初にリリースしてから約 4 か月が経ちました。しかし、時間が経つ...

ダイクストラのアルゴリズムの詳細な説明

この記事では、まず単一ソース最短経路問題から始め、次にベルマン・フォード アルゴリズムについて説明し...

...