大規模モデルの AI アシスタントを開発するには、ChatGPT のような調整と微調整がすでに業界標準の手法であり、通常は SFT + RLHF の 2 つのステップに分かれています。 アレン研究所の新しい研究によると、これらのステップはどちらも必要ないことがわかりました。 ? ? 新しい論文では、事前トレーニングされたばかりの基本モデルがすでに指示に従う能力を習得しており、プロンプトだけでプロジェクトを誘導できると指摘しており、開発コミュニティから強い注目を集めています。 RLHF は非常に高価であり、トレーニングが安定していないため、これにより多額の費用を節約できます。 これに基づいて、この研究では、微調整を必要としない新しいアライメント方法URIALを提案しました。 論文では、この新しい手法を「基礎となるモデルの潜在能力を解き放つ呪文」と表現しており、これにより多くの計算リソースと時間を節約できるとしている。 さらに注目すべきは、安定した RLHF (人間強化学習) 機能を持たない小規模チームでも、低コストでチャットや指示に従うことができるアライメント モデルを開発できることです。 現在、URIAL コードと新しい評価ベンチマーク Just-Eval-Instructがオープンソース化され、アップロードされたばかりです。 この研究は、アレン研究所とワシントン大学のYejin Choi 氏のチームによるものです。Top_p サンプリングは過去に提案されたもので、今日の大規模モデル API 呼び出しでよく使用されるパラメーターです。 第一著者のリン・ユーチェンは上海交通大学の卒業生です。 SFT+RLHF 神話を打ち破るアライメントの微調整に疑問を持ち始めた最初の研究は、5月にMetaらがLIMAで実施した研究でした。 LIMA は、ChatGPT のパフォーマンスに匹敵するには、SFT (教師あり微調整)に必要なサンプルは 1,000 個だけであると指摘しています。 論文の中で、LIMA チームは「表面的整合仮説」についても検討しました。
言い換えれば、アライメント フェーズでは、モデルの機能が強化されることなく、モデルの言語スタイルのみが調整されます。 URIAL チームは、表面アライメント仮説から出発して、ベース モデルとアライメント モデル間のトークン分布シフト(TDS) を比較するための広範な実験を実施しました。 この実験では、3 つのグループの基本モデルを使用して、アライメント モデルと比較します。結果は次のようになります。
次の質問は、SFT と RLHF なしで、基本モデルを複数回の会話を行い、指示に従うことができる AI アシスタントに変換するにはどうすればよいかということです。 ウリアルチームの調整されていないアライメント方法 URIAL (Untuned LLMs with Restyled In-context ALignment)は、ベース モデルのコンテキスト学習機能のみを活用して効果的なアライメントを実現し、必要なのは 3 つのスタイル例とシステム プロンプトだけです。 実験では、研究チームはURIAL法を使用して、7B、70BのLlama2とMistral-7B大型モデルの位置合わせを行いました。 結果は、ベースモデルが強力な場合、 URIAL は SFT や RLHF よりも優れたパフォーマンスを発揮することを示しています。 チームは、URIAL メソッドの主な貢献は次のとおりであると考えています。
この実験では、URIAL の異なる数の例も調査しました。8 に増やすと、いくつかの指標が大幅に改善されましたが、いくつかの指標も低下しました。最終的に、著者らはバランスの取れたアプローチとして 3 を使用することを推奨しました。 異なる例への変更に対しても堅牢です。 以前の会話を例の一部として使用する場合、URIAL は基本モデルが複数ラウンドの会話の機能を獲得できるようにすることもできます。 もう一つ論文でテストされたLlama-2とMistralは、実際には一般的にアルパカ科に属します。 URIAL の微調整不要のアライメント方法は、Alpaca アーキテクチャ以外の大規模モデルにも使用されますか? Alpaca 以外の大規模なオープンソース モデルを見つけるのは難しいため、リリースされたばかりの Mamba アーキテクチャ ベースのモデルである Transformer Challenger を試してみました。 Mamba は状態空間モデルです。アルパカでもなければ、トランスフォーマーでもありません。 論文の付録に記載されている URIAL 標準プロンプト語のセットを使用した簡単なテストでも、同じことが当てはまることがわかりました。 URIAL を使用して、「状態空間モデルとは何かを 6 歳児でも理解できる方法で説明できますか?」と質問します。 Mamba は数学的に定義された状態を道路上の車の位置と比較しますが、これは比較的シンプルで理解しやすいものです。また、マークダウン形式の画像リンクも提供し、画像とテキストの両方で質問に答えようとします。 URIAL を使用せずにこの質問を直接入力すると、Mamba は基本モデルと同じように動作し、質問に答える代わりにテキストを補完し、説明が重複することになります。 論文: https://allenai.github.io/re-align/ |
<<: 700億Llama2が即完売!申請不要で商用利用も無料という国産最新大型モデルが発表された。その背後にあるのはプライベートエクイティ大手企業
>>: 2024年に最も使用される11のAIテキスト生成ツール
見たものを何でもコピーします。これは魔法ですか、それとも孫悟空の魔力ですか?どちらでもない。これが ...
C# アルゴリズムは張さんの誕生日問題をどのように実装するのでしょうか?まず、張さんの誕生日に関する...
保険業界におけるデータ分析の利点は一般的に知られています。調査レポートでは、ビッグデータサプライヤー...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
最近では、3D 対応の拡散モデルを使用してモデルをトレーニングし、個々のオブジェクトに対して SDS...
[[280027]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
人工知能とロボット工学はテクノロジー分野に大きな変化をもたらしています。 20年前に人々が夢見ていた...
以前、Googleとボストン大学の研究者は、DreamBoothと呼ばれる「パーソナライズされた」テ...