アルパカ科全体よりも優れたMeta AIの新しい自己アライメント手法は、人間の注釈データをほとんど必要としません

アルパカ科全体よりも優れたMeta AIの新しい自己アライメント手法は、人間の注釈データをほとんど必要としません

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

手動ラベル付けデータは不足していますか?

Mata の新しい方法は、少量のシード データのみを使用して、高品質の命令に従う言語モデルを構築します。

言い換えれば、大規模な言語モデルでは、微調整のために手動で注釈を付けられた大量の指示データが必要になりますが、現在ではモデルはオンライン コーパス内のラベルのないテキストから指示を自動的に推測できます。

そして、自分で生成した指導データを使ってトレーニングを行うので、自社生産・自社販売に匹敵します。

そして、この方法を使用してトレーニングされたモデルは、Alpaca ベンチマークにおいてオープンソースの Alpaca とその派生モデルシリーズを上回ります

LeCun 氏は、この研究はモデルの自己整合という点でセンセーショナルだとツイートした。

ネットユーザーの一言でまとめると、次のようになります。

アルパカは自ら訓練を始めました。

2 つの文で要約すると次のようになります。

元々は、コマンド>応答データセットが必要でしたが(手動でラベル付けする必要がありました)、現在は、応答>コマンドを実行するための「リバースモデル」をトレーニングするだけで済みます。任意のテキストを自由に指示データセットに変換できます。

ネットユーザーの中には、次のような自問自答する質問を投げかける者もいた。

これが超知能への道のように見えると思うのは私だけでしょうか?追加の高品質な外部データを必要とせずに、どんどん賢くなる LLM を取得できる場合、それは自己改善型のクローズド システムです。

おそらく必要なのは、信号を提供する強化学習システムだけであり、残りの作業は LLM 自体の反復によって実行できます。

アルパカ:自分のデータを使ってクジラを訓練してみた

この新しいスケーラブルな方法は命令バックトランスレーションと呼ばれ、Mata はこの方法を使用してトレーニングされたモデルをHumpbackと名付けました。

(研究者らは、ラクダの背との関連性と、ラクダの背の方が大きいため、モデルのスケールも大きいことからこの名前が付けられたと述べた。)

ザトウクジラをトレーニングする手順は、少量のラベル付きデータから始めて、言語モデルを使用してラベルなしテキストに対応する指示を生成し、候補トレーニング データを形成するだけです。次に、モデルを使用してデータの品質を評価し、再トレーニング用の高品質のデータを選択します。このプロセスを繰り返して、モデルをさらに改善します。

上図に示すように、準備する必要がある「材料」は次のとおりです。

  • 基本モデル - LLaMa
  • Open Assistant データセットの3200 個の例で構成されるシード データ。各例にはコマンドと対応する出力が含まれています。
  • ClueWeb コーパスから、重複排除、フィルタリング、潜在的に低品質なセグメントの削除が行われた、ラベルなしテキストの 502K セグメント (ラベルなしデータ) が抽出されました。

注釈付きの例とコーパス ソースができたので、次のステップは自己拡張段階です。

研究者らはシードデータを使用してベースモデル LLaMa を微調整し、命令予測モデルを取得しました。この命令予測モデルは、ラベルのないテキストの候補命令を推測するために使用されます。次に、候補命令はテキスト(命令と出力のペア)と結合され、候補拡張トレーニング データとなります。これが上図の拡張データ A です。

しかし、ラベルなしテキスト自体の品質が大きく異なり、生成された候補指示にもノイズが含まれるため、A のデータは直接トレーニングには使用できません。

したがって、モデルを使用してデータの品質を予測し、トレーニング用の高品質のサンプルを選択するには、重要な自己キュレーション手順が必要です。

具体的には、研究者らはシードデータのみで微調整された指示モデルを使用して候補データを採点しました。満点は5点で、より高い得点を取った人だけが次のラウンドの候補データとして選ばれます。

モデル指示予測の品質を向上させるために、研究者は候補データを使用してモデルを反復的にトレーニングし、反復トレーニング中にデータの品質はどんどん向上しました。

さらに、シード データと拡張データを組み合わせてモデルを微調整する際には、2 つのデータ ソースを区別するために異なるシステム ヒント タグも使用しました。

  • シードデータ使用のヒント「AIアシスタント風に答える」
  • 「Web 検索からの知識で回答してください」というプロンプトを使用してデータをフィルタリングします。

2 回の反復を経て、最終モデルが完成します。

2種類のトレーニングデータをマージする: 1+1>2

研究者の分析結果は次のとおりです。

△シードデータと拡張データの命令多様性。内側の円は一般的な語源の動詞、外側の円はそれに対応する普通名詞です。

上の図は、8% のシード データと 13% の拡張データ統計を使用した命令の多様性を示しています。

ロングテール部分の強化データはより多様化しており、強化データは既存の手動で注釈付けされたシードデータを補完し、シードデータに表示されないタイプを補っていることが直感的にわかります。

次に、研究者らは3つの拡張データセットを比較した。拡張データ、すべて(自己管理なし)

実験では、データセットは小さくなったものの、トレーニング データの品質が向上したため、モデルのパフォーマンスが大幅に向上したことが観察されました。

△ 自己スクリーニングを使用して、さまざまなデータサイズと品質の自己拡張データを評価します。 Y 軸は、指定されたデータ サイズと品質で LLaMa 7B を微調整した場合の text-davinci-003 に対する勝率を示しています。

(text-davinci-003、強化学習を使用して人間が書いた指示データ、出力、モデル応答、および人間の好みに基づいて微調整された GPT-3 ベースの指示追従モデル)

最後にアルパカランキングの結果を見てみましょう。 Humpback は、抽出されたデータに依存せずに他の方法を大幅に上回り、独自のモデルとのギャップを埋めます。

非蒸留とは、いかなる形式の監督としても外​​部モデルに依存しないトレーニング モデルを指します。蒸留とは、外部モデルから蒸留されたデータを使用するなど、トレーニング プロセス中により強力な外部モデルを導入することを指します。独自とは、独自のデータとテクノロジを使用してトレーニングされたモデルを指します。

△text-davinci-003に対する勝率

オープンソースモデルの LIMA 65B、Guanaco 65B、Falcon-Instruct 40B、および独自モデルの davinci-003 と Claude と比較すると、Humpback のパフォーマンスは人間の好みにより合致しています。

さらに、研究者らはこの方法の限界についても指摘した。

トレーニングに使用されるテキスト データは Web コーパスから取得されるため、微調整されたモデルによって Web データのバイアスが増幅される可能性があります。ベースモデルと比較すると、微調整されたモデルでは逸脱を検出する精度が向上します。しかし、これで問題が完全に解決されるわけではありません。

ポータル: https://arxiv.org/abs/2308.06259 (論文リンク)

<<:  MIT、物体を拾うための「最強のアシスタント」を発表、少量のトレーニングサンプルで自然言語制御を実現

>>:  Google DeepMindは少なくとも21の新しい生成AI機能を開発中

ブログ    
ブログ    

推薦する

...

人工ニューラルネットワーク入門

[[440456]]この記事はWeChatの公開アカウント「Zhibin's Python ...

...

Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

「私はAIと関係を築きました。」 一夜にして、Google のエンジニアであるブレイク・ルモワンは、...

YOLOより高速な180万画素超軽量物体検出モデルNanoDet

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

ソファがリモコンに変身、PCBが落書きに隠れる、MITの技術オタクのスマートホームはこんな感じ

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

機械学習に基づく自動化されたスピアフィッシング戦略

2016年のBlack Hat USAカンファレンスでは、カンファレンスに参加したセキュリティ専門家...

AI技術を活用してより強力な処理チップを開発

現在、ますます多くのスタートアップ企業と大手半導体企業が新しい AI チップの発売を競っています。 ...

機械学習機能を簡単に拡張: Rancher に Kubeflow をインストールする方法

機械学習の分野が発展し続けるにつれて、機械学習を扱うチームが単一のマシンでモデルをトレーニングするこ...

iQIYI CTO 唐星氏:AIはビデオプロセス全体にわたって実行され、理解と意思決定を開発する必要がある

[51CTO.com からのオリジナル記事] 歴史が示しているように、コンテンツの各形態は多数のイン...

「AI+教育」が人気を集めているが、次の巨人は誰になるのか?

人工知能という学問分野が1956年に正式に提唱されて以来、会議やフォーラムでの華やかな「ホットワード...

...

...

科学的人工知能と疑似科学的人工知能を区別する方法

人工知能が進歩し続けるにつれて、研究者たちはその能力を向上させ、さまざまな分野で倫理的かつ責任を持っ...

AIを活用してよりスマートな電子データ交換を実現

電子データ交換 (EDI) の歴史は、企業がより効率的に電子的にデータを交換する方法を模索し始めた ...