今日の大規模モデルをトレーニングするための中核的な方法となると、RLHF は避けられないトピックです。 RLHF、つまり人間のフィードバックに基づく強化学習は、ChatGPT とオープンソースの LLaMA の両方に不可欠です。 しかし、「H」は、質の高い人間からのフィードバックを収集することが非常に難しいため、大きなボトルネックとなっています。 では、AI にそれを任せることはできるのでしょうか?実際にこれを行った人もいますが、RLHF に代わるものかどうかは、Google がこの調査を実施するまでわかりませんでした。 写真 新しく公開された arXiv 論文で、Google はテキスト要約に関して RLAIF と RLHF でトレーニングされたモデルのパフォーマンスを比較しました。 RLAIF は、RLHF で人間に代わって AI を使用してフィードバック生成タスクを完了し、大規模なモデルのトレーニングが人間の制限を受けないようにします。 トレーニング後の人間による評価では、RLHF と RLAIF でトレーニングされたモデルによって生成された回答に対する人々の好みにほとんど違いはありませんでした。 いくつかの詳細においても、RLAIF は RLHF よりも優れたパフォーマンスを発揮します。 AI エンジニアがこの論文を転送し、GPT-5 が登場する頃には人間のデータラベラーは必要なくなるかもしれないとコメントしました。 写真 詳細な評価結果を紹介する前に、RLAIF ワークフローを見てみましょう。 LLM を使用したフィードバック データの生成実際、RLAIF と RLHF は、文字通りの意味からわかるように、人間が AI に置き換えられていることを除けば似ています。 写真 したがって、焦点は自然にフィードバック コンテンツの生成に移ります。 研究者たちはまず、フィードバックを得るために AI に 2 つの答えの中から選択するように依頼しました。 ランダム性の問題を回避するために、複数の選択が行われ、その間にオプションの順序が入れ替わります。 より良い回答を得るために、思考の連鎖 (CoT) 推論モデルも使用されます。 さらに、LLM の自己一貫性を向上させるために、このプロセスでは 2 つのオプションを直接選択するのではなく、2 つの回答が個別に採点され、合計が 1 になります。 このプロセスのプロンプトと出力はおそらく次のようになります。 写真 例えば: 写真 このデータを使用して報酬モデルをトレーニングし、好みのスコアを予測できます。 次に、研究者らは、訓練された報酬モデルを使用して、ターゲットモデルに強化学習を実行させました。 他のモデルで一般的に使用されている PPO (Proximal Policy Optimization) アルゴリズムとは異なり、RLAIF は A2C (Advantage Actor Critic) アルゴリズムのよりシンプルで効果的な修正バージョンを採用しています。 もちろん、報酬モデルをトレーニングせずに、AI によって生成されたラベル付きデータを強化学習に使用することもできます。 実際、チームが取得したラベル付きデータセットは報酬モデルよりも大きく有用でしたが、計算コストが高すぎることを考慮して、報酬モデルを選択しました。 この時点で、大型モデルの「コース」は完了していますが、「卒業」したい場合は、さらに別の「試験」を受ける必要があります。 「試験」には以下の3つの項目が含まれます。
このようなテストを経て、強化学習はついに成功しました。 では、「AIに指導を受けた生徒」の成績はどうでしょうか? テスト結果はRLHFと同等である研究チームは 1,200 人を募集し、SFT (ベースライン教師あり微調整)、RLHF、RLAIF、および実際の人々による回答を良い回答から悪い回答までランク付けしました。 写真 SFT 方式を基準とすると、RLHF と RLAIF の勝率はどちらも 70% を超えており、人間がこれら 2 つの方式を好む傾向は SFT のほぼ 3 倍であることがわかります。 RLHF のパフォーマンスは RLAIF よりもわずかに優れていましたが、両者の差は有意ではありませんでした。 RLHF を基準とした場合、RLAIF の勝率は 50% となり、人間は 2 つに対して同じ傾向があることがわかります。 写真 興味深いことに、RL トレーニングを受けた両方のモデルは、実際の人間が直接答えた回答をはるかに上回る結果を出しました。 RLAIF の実際の人に対する勝率は 79% と高く、RLHF は 80% であり、実際の人の回答の傾向の 4 倍であることを意味します。 さらに、研究者らは出力内容を慎重に評価した結果、RLAIF でトレーニングされたモデルは RLHF よりも幻覚を起こす可能性が低く、論理的および文法的な誤りも少ないことも発見しました。 もう一つしかし、一部のネットユーザーはRLAIFに関するいくつかのハイライトも発見しました。
写真 一方、RLHF プロセス中、一部の人々が AI の使用に「怠惰」になっている可能性を排除することはできません。 写真 おそらく、「私はあなたの中におり、あなたは私の中にいる」というのが、2 つの方法のテスト結果が非常に近い理由なのでしょうか? 論文アドレス: https://www.arxiv.org/abs/2309.00267 |
<<: AI企業がソフトウェアサプライチェーンの脆弱性の犠牲になると何が起こるか
>>: テレンス・タオは数学の問題を解くために大規模なモデルを使用しています。コードの生成とLaTeXの数式の編集は非常に便利です。
昨年、Xiaomi がジョンズ・ホプキンス大学の人工知能の専門家であるダニエル・ポービー氏を採用した...
11月16日、業界をリードする科学研究機関、米国国立スーパーコンピューティングセンター、そしてAI分...
7B オープンソースモデル、その数学的能力は数千億規模の GPT-4 を超えます。その性能はオープン...
「仕事でサボるのは楽しいが、いつもサボっているのも楽しい」ということわざがあります。 [[3583...
自動化技術は企業ビジネスの発展を促進しており、ロボティック・プロセス・オートメーション (RPA) ...
01 はじめにFacebook に写真をアップロードするたびに、プラットフォームが顔認識アルゴリズ...
[[334808]]ミラロのコメント – 今日の軍事コンピューティングに関連するものはすべて人工知能...
5月下旬、トップの国際学術誌である米国科学アカデミー紀要(PNAS)は、昨年10月に査読が受理され...
ハイパーオートメーションとは何か、そして AI 主導のオートメーションが製品プロセスを改善してより迅...
[51CTO.comより引用] Alimamaは、誰もが簡単にマーケティングを行えるようにすることを...
スイスはアルプス山脈の高速道路で何万台もの貨物トラックによる渋滞と汚染に直面したため、世界最長かつ最...