Google は、DQN と同等で、より優れた一般化パフォーマンスを備えた 2 つの新しい強化学習アルゴリズムを実装しました。

Google は、DQN と同等で、より優れた一般化パフォーマンスを備えた 2 つの新しい強化学習アルゴリズムを実装しました。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

強化学習 (RL) アルゴリズムは進化し続けています…

Google Research の研究者は、 AutoMLグラフ表現と最適化手法を使用して、解析可能で一般化可能な新しい RL アルゴリズムを学習できることを実証しました。

彼らが発見したアルゴリズムのうち 2 つは、視覚的な観察を伴う Atari ゲームなど、より複雑な設定に一般化できます。

この成果により、RL アルゴリズムはますます改善されます。

「優れている」ことの詳細については、以下を参照してください。

損失関数は計算グラフとして表現される

まず、強化学習アルゴリズムの研究の難しさに関して、研究者たちはメタ学習法を設計することが解決策になると考えています。

このアプローチにより、さまざまなタスクに自動的に一般化される新しい RL アルゴリズムの設計が可能になります。

ニューラルネットワーク構造を表すグラフ空間内を検索するNeural Architecture Search(NAS)のアイデアに触発され、研究者は損失関数を計算グラフとして表現することでRLアルゴリズムをメタ学習します

損失関数は、入力、演算子、パラメーター、出力をそれぞれ表すノードを持つ有向非巡回グラフを使用して表されます。

この表現には多くの利点があり、一般的には、新しい、解析可能で一般化可能な RL アルゴリズムを学習するために使用できます。

そして、この表現を実装するには PyGlove ライブラリを使用します。

進化に基づくメタ学習法

次に、研究者たちは進化に基づくメタ学習アプローチを使用して、関心のある RL アルゴリズムを最適化しました。

プロセスはおおよそ次のようになります。

提案されたアルゴリズムは、より困難な環境のセットでトレーニングする前に、まず障害物環境で良好なパフォーマンスを発揮する必要があります。アルゴリズムのパフォーマンスが評価され、集団の更新に使用され、パフォーマンスの優れたアルゴリズムがさらに新しいアルゴリズムに変化します。トレーニングの最後に、最もパフォーマンスの高いアルゴリズムがテスト環境で評価されます。

この実験における集団の規模は約 300 エージェントであり、研究者は 20,000 ~ 50,000 回の突然変異の後、候補損失関数の進化には約 3 日間のトレーニングが必要であることを観察しました。

トレーニングコストをさらに制御するために、DQN (Deep Q Learning Algorithm) などの人間が設計した RL アルゴリズムを最初のグループに埋め込みました。

優れた一般化性能を示した2つのアルゴリズムを発見

最終的に、彼らは優れた一般化性能を示す 2 つのアルゴリズムを発見しました。

1 つはDQNRegで、これは DQN に基づいており、Q 値に加重ペナルティを追加して、標準の二乗ベルマン誤差にします。

2 番目はDQNClippedです。これはより複雑ですが、その支配的な項は Q 値の最大値とベルマン誤差の二乗 (定数係数) という単純な形式です。

どちらのアルゴリズムも Q 値を正規化する方法と見なすことができ、どちらも異なる方法で Q 値を過大評価する問題を解決します

最終的に、DQNReg は Q 値を過小評価しますが、DQNClipped はゆっくりと真実に近づき、決して過大評価することはありません。

パフォーマンス評価に関しては、一連の古典的な制御環境を通じて、両方のアルゴリズムは、密な報酬タスク (CartPole、Acrobot、LunarLander) ではベースラインと同等であり、疎な報酬タスク (MountainCar) ではDQN を上回ることができます

研究者らは、さまざまなタスクをテストするスパース報酬 MiniGrid 環境のセットにおいて、DQNReg がトレーニング環境とテスト環境の両方でサンプル効率と最終パフォーマンスの両方においてベースラインを大幅に上回っていることを発見しました。

さらに、いくつかの MiniGrid 環境で DDQN (Double DQN) と DQNReg のパフォーマンスを視覚的に比較すると、DDQN がまだ意味のある動作をすべて学習するのに苦労しているときに、DQNReg はすでに最適な動作を効果的に学習できることがわかりました。

最後に、この研究のトレーニングは非画像ベースの環境で実行されましたが、画像ベースの Atari ゲーム環境では DQNReg アルゴリズムのパフォーマンスが向上したことが確認できました。

これは、一般化可能なアルゴリズム表現を備えた、安価だが多様なトレーニング環境のセットでのメタトレーニングが、根本的なアルゴリズムの一般化につながる可能性があることを示唆しています。

この研究成果に基づいて書かれた論文は、ICLR 2021に採択されました。研究者らは、今後、Actor-CriticアルゴリズムやオフラインRLなど、より多様なRL設定に研究を拡大していく予定です。

<<:  NLP フィールド インデックス ツール、3000 以上のコード ベース、論文や GitHub ライブラリのワンクリック検索

>>:  フェデレーテッドラーニングも安全ではないのでしょうか? Nvidiaの研究は「プライバシーフリー」データを使用して元の画像を直接再構築します

ブログ    
ブログ    
ブログ    

推薦する

SparseOcc: 完全にスパースな 3D パノラマ占有予測 (セマンティック + インスタンス デュアル タスク)

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

建物をスマートかつ持続可能なものに変える重要性

[[428632]]温室効果ガス削減目標と規制要件を満たすには、企業は施設をエネルギー効率の高いスマ...

ロボットと一緒に働くのはどんな感じでしょうか?

[[206343]]アメリカの企業では、多数のロボットを使って働くことが当たり前になっている。ここ...

人工知能、垂直農法、ブロックチェーン、ロボットは、未来の農業の急速な発展を推進する4つの主要技術である。

これは日本の東京国際展示場にあるデンソーの双腕協働ロボットの写真です。写真提供:新華社記者 華毅国連...

180 の大学が人工知能専攻の追加を承認されました。これらの大学への出願をお勧めしますか?

[[317457]]教育部が発表した最新の学部専攻新登録リストでは、理工系や総合大学のほか、語学や...

...

人工知能の潜在能力を活かすための深層開発

[[244225]]人工知能は現実的な科学技術の力であり、需要、デジタル経済、高品質の開発に焦点を当...

...

ビジネスニーズに基づいて AI ソリューションを選択するにはどうすればよいでしょうか?

現在、企業では人工知能(AI)をますます幅広く活用しており、自動化する傾向もあります。既存のデータ開...

AIプロジェクト開発における10の最も一般的な間違い

人工知能 (AI) モデルのトレーニングは単純に思えるかもしれませんが、そうではありません。 AI ...

機械学習におけるラベル漏洩とそれがモデルのパフォーマンスに与える影響について紹介します

優れた、またはほぼ優れたモデルのパフォーマンスに圧倒されていますか? あなたの幸せは裏切られています...

疫病と闘う最前線の医療従事者を守るためにAIをどう活用するか?

私たちは前例のない危機を生きています。 COVID-19パンデミックの間、医療従事者は最前線のヒーロ...

過去10年間のGoogleアルゴリズムの変化

Google のアルゴリズムは毎年 500 ~ 600 回も変更されますが、その多くは小さな変更です...

ロボットのウォーリーがやってきた!ディズニーは、RLを使って歩くことを学び、社会的にも交流できる新しいロボットを発表した。

チン、チン、チン、『ウォーリー』が舞台に登場!頭は平らで、体は四角い。地面を指差して見るように言うと...

Weibo ディープラーニング プラットフォームのアーキテクチャと実践

人工ニューラル ネットワーク アルゴリズムの成熟と GPU コンピューティング能力の向上により、ディ...