強化学習アルゴリズムの分類をさまざまな観点から理解します

強化学習アルゴリズムの分類をさまざまな観点から理解します

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)から転載したものです。

この記事では、強化学習アルゴリズムの分類を紹介し、さまざまな観点からいくつかの分類を検討します。さっそく、深呼吸して、一緒に RL アルゴリズムの分類を学びましょう。

[[355287]]

モデルフリー vs. モデルベース

モデルフリー分類とモデルベース分類 [画像出典: 著者、OpenAI Spinning Up による再作成]

RL アルゴリズムを分類する 1 つの方法は、エージェントが環境のモデルにアクセスできるかどうかを尋ねることです。言い換えれば、環境がエージェントのアクションに反応するかどうかを尋ねます。この見解に基づくと、RL アルゴリズムにはモデルフリーとモデルベースの 2 つの分野があります。

  • モデル RL アルゴリズムは、学習した環境のモデルに基づいて最適なポリシーを選択します。
  • モデルフリー RL アルゴリズムは、エージェントを繰り返しテストすることで最適なポリシーを選択します。

次の表に示すように、両方のアルゴリズムにはそれぞれ長所と短所があります。

価値ベースとポリシーベース

RL アルゴリズムを分類する別の方法は、アルゴリズムが価値関数を最適化するのか、ポリシーを最適化するのかを考えることです。詳しく説明する前に、まず戦略と価値の機能について理解しましょう。

(1)戦略

ポリシー π は状態 s からアクション a へのマッピングです。ここで、π(a|s) は状態 s でアクション a を実行する確率です。戦略は決定論的なものでもランダムなものでもかまいません。

非常に単純なゲーム「じゃんけん」をプレイしているとします。このゲームでは、2 人のプレイヤーが 3 つのアクション (グー、チョキ、パー) のうち 1 つを同時に実行して勝敗を競います。ルールは簡単です:

  • はさみと布
  • グー vs ハサミ
  • ブッカー・ストーン

戦略を反復的なじゃんけんと考える

  • 決定論的な戦略は簡単に利用できます。あなたがより多くの「石」をプレイしていることに気付いた場合、私はこれを有利に利用してより大きな勝利を得ることができます。
  • 均一なランダム ポリシーが最適です。選択が完全にランダムである場合、勝つためにどのようなアクションを実行すればよいかわかりません。

(2)価値関数

価値関数は、将来の報酬 (戻り値) の予測に基づいて状態がどの程度優れているかを測定する関数です。戻り値 (Gt) は基本的に、「割引」された戻り値 (時刻 t 以降) の合計に等しくなります。


γ∈[0,1]は割引係数です。割引率は、いくつかの理由により将来の収益を相殺することを目的としています。

  • 便利な数学計算
  • 状態変化図における無限ループの解消
  • 将来の収益に関する不確実性が高い(株価の変動など)
  • 将来の報酬はすぐには利益にならない(例えば、人々は10年後よりも今楽しみを味わうことを好む)

戻り値の概念を理解したところで、値関数の数学的形式を定義しましょう。

価値関数には 2 つの数学的形式があります。


状態アクション価値関数 (Q 値) は、時刻 t における状態とアクションの組み合わせの期待される戻り値です。


Q値と価値関数の違いは、アクションアドバンテージ関数(A値と呼ばれることが多い)です。


これで、価値関数とアクション状態価値関数が何であるかがわかりました。次に、アルゴリズムが最適化するコンポーネントに重点を置いた RL アルゴリズムの別の分野について詳しく学習します。

価値アルゴリズムと戦略アルゴリズム [画像ソース: 著者、David Silver RL コースの再現]

  • 価値強化学習は、価値/アクション価値関数を学習して最適なポリシーを生成する(つまり、暗黙的に最適なポリシーを生成する)ことを目的としています。
  • ポリシー RL は、パラメータ化された関数を使用してポリシーを直接学習することを目的としています。
  • Actor-Critic RL は価値関数とポリシーの両方を学習することを目的としています。

次の表は、価値アルゴリズムと戦略アルゴリズムの長所と短所を示しています。


  • 価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択する必要があります。アクション空間が非常に高次元または連続的である場合、これは非常にコストがかかる可能性があります。一方、ポリシー アルゴリズムは、最大化計算を実行せずにポリシーのパラメーターを直接調整することによって動作します。
  • 値アルゴリズムは、適切に実行されない場合、多くの問題が発生する可能性があります (収束特性が低い/不安定)。一方、ポリシー アルゴリズムは、ポリシー勾配に小さな増分変更のみを加えるため、より安定しており、収束特性が優れています。
  • ポリシー アルゴリズムは決定論的ポリシーと確率論的ポリシーの両方を学習できますが、値アルゴリズムは決定論的ポリシーのみを学習できます。
  • 価値アルゴリズムと比較すると、元の戦略アルゴリズムは遅く、分散が大きくなります。価値アルゴリズムは、アクション状態価値関数を最大化するアクションを選択しようとします。これにより、ポリシーが最適化されます (操作が高速化され、分散が小さくなります)。一方、ポリシー アルゴリズムは、数ステップしか実行せず、スムーズかつ安定して更新されますが、同時に効率が低く、分散が大きくなることがあります。
  • ポリシー アルゴリズムは通常、グローバル最適値ではなくローカル最適値に収束します。

戦略的アルゴリズムと非戦略的アルゴリズム

RL アルゴリズムを分類する別の方法は、戦略ソース分類に基づいています。


戦略アルゴリズムは「実践しながら学ぶ」ものであると言えます。つまり、アルゴリズムは π からサンプリングされた経験からポリシー π を学習しようとします。非ポリシー アルゴリズムは「監視」によって機能します。言い換えれば、アルゴリズムは、μ によってサンプリングされた経験からポリシー π を学習しようとします。たとえば、ロボットは人間の行動を観察して操作方法を学習します。

<<:  ビデオ通話の低品質なビデオとはおさらば: NVIDIA の新しいアルゴリズムはトラフィックを最大 90% 圧縮できます

>>:  2020年Qizhi開発者会議が北京で盛大に開幕、第一弾の1000万インセンティブボーナスが発表された

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

2020 年の機械学習の 5 つのトレンド

[[318500]] [51CTO.com クイック翻訳]機械学習は、多くの人にとって新しい用語かも...

ResNet仮説は覆されたか? Redditの人:長年誰もその原理を理解していなかった

[[429626]] 2015 年に、画期的なニューラル ネットワーク モデル ResNet がリ...

ベイジアンパーソナライズランキングアルゴリズムを1つの記事で理解する

[[260485]] [51CTO.com からのオリジナル記事] 哲学にさまざまな流派があるように...

MIT スタンフォード トランスフォーマーの最新研究: 過剰トレーニングにより、中程度のモデルが構造一般化能力を「発現」できるようになる

人間にとって、文章は階層的です。文の階層構造は表現と理解の両方にとって非常に重要です。しかし、自然言...

救世主か、それとも公敵か? 人工知能の現在と未来を説明する記事

囲碁チャンピオンのイ・セドルを破ったロボット「アルファ碁」から、卓球ができるKUKAロボット、遠隔手...

ビッグデータの発展は、ソフトウェアエンジニアの漸進的な衰退とアルゴリズムエンジニアの台頭を伴うことになる。

[[190402]]ビッグデータは人類の歴史のどの時代にも存在していましたが、テクノロジーが一定の...

...

フランス企業が世界初のAIスマートミラーを発売。ユーザーの感情を認識し、ストレスを軽減できる

1月8日、CES 2024の期間中、フランスのスマートヘルステクノロジー企業Baracodaが世界初...

...

3DES 暗号化アルゴリズムは S/MIME プロトコルに最適な選択肢でしょうか?

Q: S/MIME プロトコルでは 3DES 対称暗号化はどのように実装されていますか? A:実際...

人工知能はソフトウェア開発のパラダイムを変えている

今日、多くのソフトウェア開発者は、コードの作成とレビュー、バグの検出、ソフトウェアのテスト、開発プロ...

MotionLM: 言語モデルとしてのマルチエージェント動作予測

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

銀行業界の「退化」の原因は人工知能なのか?

公開データによると、商業銀行は2021年も支店の閉鎖を続けた。11月までに商業銀行は2,100以上の...

ガートナー:バブルにもかかわらず、中国企業は依然としてビッグモデルと生成AIに最も関心を持っている

データ分析と人工知能は現在、世界のどの地域でも最も話題になっている技術です。特に昨年のジェネレーティ...

AIアライメントを徹底レビュー!北京大学などが800以上の文書から4万語を要約し、多くの著名な学者が執筆を担当した。

要点を一目でAI アライメントは、RLHF/RLAIF などの成熟した基本手法だけでなく、スケーラブ...