この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 「4番の選手はチームメイトの協力を得て、素早くディフェンスを突破し、まっすぐに突進してシュートし、ゴールに入った!」 みなさん、こんにちは。今ご覧いただいているのは、Google AIサッカーの試合の様子です。フィールド上で黄色いジャージを着ている選手たちは、清華大学のAI選手たちです。 今年の清華大学AIチームは並外れている。厳しいトレーニングを経て、彼らは優れた個人能力を持つスター選手を擁しているだけでなく、世界で最も強くて最も緊密なチームワークも備えている。 彼は無敵であり、多くの国際大会で優勝した。 「ああ、今度は7番がチームメイトからのアシストを受けて最後のシュートを決め、ボールがまたゴールに入った!」 話を元に戻すと、上記は実は清華大学がフットボールゲーム「 TiKick」で作成した強力なマルチエージェント強化学習 AI です。 複数の国際大会で優勝したことは、TiKick がシングルエージェント制御とマルチエージェント制御の両方でSOTAパフォーマンスを達成したことを意味し、サッカーの試合全体を完了するために10 人の選手を同時に制御することも初めて達成しました。 この強力な AI チームはどのように訓練されたのでしょうか? シングルエージェント戦略から進化したマルチエージェントサッカーAIその前に、トレーニングに使用した強化学習環境である、このサッカー ゲーム、 Google Research Football (GRF) について簡単に見てみましょう。 これは 2019 年に Google によってリリースされたもので、ゲームのすべての主要なルールをサポートする物理ベースの 3D サッカー シミュレーションを提供し、インテリジェント エージェントによって制御される 1 人以上のサッカー選手が、相手チームの組み込み AI と対戦します。 3,000 ステップで構成されるゲームの前半と後半では、インテリジェント エージェントは、ゴールを決めるために、移動、パス、シュート、ドリブル、タックル、スプリントなどの 19 のアクションについて継続的に決定を下す必要があります。 このようなサッカーの試合環境で強化学習を実行するには、2 つの困難があります。 まず、マルチエージェント環境であるため、合計 10 人のプレーヤー (ゴールキーパーを除く) が操作可能であり、アルゴリズムはこのような巨大なアクション空間で適切なアクションの組み合わせを検索する必要があります。 第二に、サッカーの試合ではゴールが非常に少ないことは誰もが知っているので、アルゴリズムが環境から頻繁に報酬を得ることは難しく、トレーニングの難易度が大幅に高まります。 清華大学の今回の目標は、複数のプレイヤーを操作してゲームをクリアすることです。 彼らはまず、2020年にKaggleが開催したGRF世界選手権で最終的に優勝したWeKickチームの数万件のセルフプレイデータを観察し、オフライン強化学習の手法を用いてそこから学習しました。 このトーナメントでは、フィールド上で 1 人のプレイヤーのみを操作して対戦する必要があります。 シングルエージェントデータセットからマルチエージェント戦略を学習するにはどうすればよいでしょうか? WeKick のシングルエージェント操作を直接学習し、各プレーヤーにコピーすることは明らかにお勧めできません。そうすると、全員がボールをつかんでゴールに急いで向かうだけになり、チームワークがまったくなくなるからです。 バックコートで活動していない選手の行動に関するデータがない場合はどうなりますか? 彼らはアクション セットに 20 番目のアクション「build-in」を追加し、このタグをすべての非アクティブなプレイヤーに付与しました (ゲーム中にプレイヤーのアクションとして build-in が選択された場合、プレイヤーは組み込みのルールに従ってアクションを実行します)。 次に、マルチエージェント行動クローニング (MABC) アルゴリズムを使用してモデルをトレーニングします。 オフライン強化学習の中心的な考え方は、データ内で高品質のアクションを見つけ、これらのアクションの学習を強化することです。 そのため、プレイヤーがアクションとして 1 つのアクションのみを実行する傾向を防ぐために、目的関数を計算するときに各ラベルに異なる重みを与える必要があります。 ここでの重量配分については、次の 2 つの点を考慮する必要があります。 1 つは、データセットからより多くの目標を持つ試合を選択し、これらの高品質のデータのみをトレーニングに使用することです。報酬がより集中的であるため、モデルは収束を加速し、パフォーマンスを向上させることができます。 2 つ目は、すべてのアクションにスコアを付ける Critic ネットワークをトレーニングし、その結果を使用してアドバンテージ関数を計算し、アドバンテージ関数の値が大きいアクションに高い重みを与え、その逆も同様に行うことです。 勾配の爆発と消失を回避するために、ここではアドバンテージ関数が適切にクリップされます。 最終的な分散トレーニング アーキテクチャは、 Learner と複数の Worker で構成されます。 学習者は戦略の学習と更新を担当し、ワーカーはデータの収集を担当します。両者は gRPC を介してデータとネットワーク パラメータを交換および共有します。 ワーカーはマルチプロセスを使用して複数のゲーム環境と同時に対話したり、I/O を介してオフライン データを同期的に読み取ったりできます。 この並列実行方法により、データ収集の速度が大幅に向上し、トレーニング速度が向上します(2 日かかる他の分散トレーニング アルゴリズムと同じパフォーマンスを達成するのに 5 時間しかかかりません)。 さらに、モジュール設計により、フレームワークはコードを変更することなくワンクリックでシングルノードデバッグモードとマルチノード分散トレーニングモードを切り替えることができ、アルゴリズムの実装とトレーニングの難易度が大幅に軽減されます。 勝率94.4%、1試合平均3ポイントマルチエージェント (GRF) ゲームにおけるさまざまなアルゴリズムの比較結果では、TiKick の最終アルゴリズム (+AW) が最高の勝率 (94.4%) と最大のゴール差で最高のパフォーマンスを達成しました。 TrueSkill(機械学習による競争ゲームのランキングシステム)も1位を獲得しました。 TiKick は、内蔵 AI との対戦で勝率 94.4%、平均ネットスコア 3 ポイントを達成しました。 GRF アカデミック シナリオで TiKick をベースライン アルゴリズムと比較した結果、すべてのシナリオで TiKick が最高のパフォーマンスと最低のサンプル複雑性を達成し、大きな差があることがわかりました。 ベースラインの MAPPO と比較すると、5 つのシナリオのうち 4 つで、わずか 100 万ステップで最高スコアを達成できることがわかりました。 著者について第一著者の Huang Shiyu 氏は清華大学の博士課程の学生であり、彼の研究対象はコンピューター ビジョン、強化学習、およびディープラーニングの交差点にあります。彼は、Huawei Noah's Ark Lab、Tencent AI、カーネギーメロン大学、SenseTimeで勤務した経験があります。 共著者は清華大学の陳文澤氏です。 さらに、著者には、国立国防科学技術大学のLongfei Zhang、Tencent AI LabのLi Ziyang、Zhu Fengming、Ye Deheng、清華大学のChen Tingが含まれます。 責任著者は清華大学の朱軍教授です。 論文の宛先: プロジェクトアドレス: 参考リンク: |
<<: クラウド、持続可能性、デジタル導入 - 2022 年のアジア太平洋地域の技術予測
PyTorch チームは、大規模モデルの推論を10 倍高速化しました。そして、純粋なネイティブ Py...
[[213130]] 1つこれは世界を変える握手です!今日、世界で最も最先端の2つの科学、 人工知...
最近、TCP/IP プロトコルの学習に時間を費やしました。主な理由は、TCP/IP に関する私の理解...
Language I/O のプロダクト担当副社長である Chris Jacob が、進化する AI ...
[[422539]] 9月7日午後、第19回「海南省科学技術会議」に新たに追加されたホットトピック...
捜査チームがスケッチアーティストを雇って、目撃者が語った犯人像を描いてもらう犯罪番組を見たことを覚え...
3年間「奇妙な病気」の治療を求めても効果がなかったのですが、ついにChatGPTによって診断に成功し...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
ティム・アンダーソン編纂者:ヤン・ジェン制作:51CTO テクノロジースタック(WeChat ID:...
Google は、ジャーナリストの記事作成を「支援」すると主張し、新しい人工知能ツール Genesi...