ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

ChatGPTの愚かさに対する新たな説明: 世界はAIによって変化し、訓練されたときとは異なっている

学術界は、ChatGPT がなぜ愚かになったのかという新たな説明を持っています。

カリフォルニア大学サンタクルーズ校の研究では次のように述べられています。

トレーニング データがカットオフされる前のタスクでは、より大きなモデルの方がパフォーマンスが大幅に向上します。

この論文は、「タスク汚染」の問題に焦点を当てています。つまり、大規模なモデルはトレーニング中に多くのタスク例を見たため、AI がゼロサンプルまたは少数サンプルの機能を備えているという誤った印象を与えてしまうのです。

一部の学者は別の観点から、大規模モデルのパラメータはトレーニング後に固定され、人々が新しいタスクを提案し続けるため、入力分布は常に変化していると指摘しました。モデルがこのような変化に継続的に適応できない場合、その機能は徐々に低下します。

AI は質問するだけで答えられると思われがちですが、実際にはトレーニング中に最も一般的なタスクを経験しています。

時間が経つにつれて、人々はより多くの新しい質問をするようになり、AI のパフォーマンスは低下し始めました。

たとえば、コードの問題に関して言えば、プログラミング言語はまだ進化と変化を続けており、遅かれ早かれその効率は許容できないほど低くなります。

これは、継続的に学習する能力を持たないすべてのモデルの運命です。

ミッションの汚染はどの程度深刻ですか?

研究チームは、ChatGPT、OPT、Bloom以前のGPT-3シリーズから、最新のGPT-3.5-turbo、アルパカ科のLlama、Alpaca、Vicunaまで、合計12のモデルを評価しました。

彼らは全員、トレーニング終了前にタスクのパフォーマンスが大幅に向上するという同様の問題を抱えています。

タスク汚染を評価するのは非常に困難です。クローズドソース モデルはトレーニング データをまったく公開しません。また、ほとんどのオープン ソース モデルはライフ ソースのみを公開し、データ自体は公開しません。

研究者がインターネットデータを再クロールすると、モデルがトレーニングされたときと比べて変化が生じている可能性もあります。

この目的のために、チームはミッション汚染の程度を測定するために 4 つの方法を使用しました。

  • トレーニングデータの確認: 対応するタスク例を直接検索

オープンソース モデル Alpaca と Vicuna では、トレーニング データが汚染されたタスクのパフォーマンスがオリジナルの Llama よりも優れているという明確な傾向があります。

  • タスク例の抽出:プロンプト語を調整することで、モデルにトレーニングデータ内のタスク例を記憶させます。

GPT-3 davinci-001 バージョンから GPT-3.5-Turbo まで、この問題はますます深刻になっています。

図中、X はモデルがトレーニング データ内の元のタスク例を再現したことを表し、緑は指示によって微調整されたモデルがトレーニング データを再現しなかったことを表します。

灰色は、指示によって微調整されていないモデルがプロンプト語に従ってトレーニング データを繰り返すことができないことを表していますが、問題が存在しないことを意味するものではありません。

  • メンバーシップ推論(生成タスクのみ) : モデルによって生成された回答が元のデータとまったく同じかどうかを確認します。

  • 時系列分析: トレーニング データの収集日がわかっているモデルの場合は、リリース日がわかっているデータセットでパフォーマンスを測定し、時系列の証拠を使用してデータ汚染の証拠を確認します。

最初の 3 つの方法は、精度は高くなりますが、再現率は低くなります。タスクのトレーニング データ内にデータが見つかった場合、その例を見たことがあることが確実になります。

ただし、データ形式の変更、キーワードの変更、データセットのサイズにより、最初の 3 つの方法を使用して証拠が見つからない場合でも、データ汚染が存在しないことを意味するわけではありません。

4 番目の方法は再現率は高いですが、精度が低く、干渉要因の影響を受けやすいです。

特にGPT-3シリーズについては、その機能向上は命令の微調整によるものだと現在考えられていますが、研究チームはそうではないと考えています。

davinci-002 は 2021 年以前のデータセットでは davinci-001 よりもパフォーマンスが向上しましたが、2021 年以降のデータセットではそれに応じてパフォーマンスが低下しました。

これは、微調整された GPT-3 ファミリの命令が特定の初期のデータセットに対してのみ機能することを示唆しています。

チームは次のように結論付けました。

  • タスクの汚染により、クローズドソース モデルは、特に RLHF で微調整されたモデルの場合、ゼロ ショットまたは少数ショットの評価で実際よりも優れたパフォーマンスを発揮する場合があります。汚染の程度は不明のままですので、注意が必要です。
  • 実験では、タスク汚染の可能性がない分類タスクの場合、ゼロショット設定と少数ショット設定の両方で、大規模なモデルがほとんどのベースラインに対して統計的に有意な改善を示すことはほとんどありません。
  • 時間が経つにつれて、多くの下流タスクにおける GPT-3 ファミリーのモデルのゼロショットまたは少数ショットのパフォーマンスが、おそらくタスクの汚染により向上することが観察されます。
  • オープンソース モデルの場合でも、トレーニング データにタスクの汚染がないかチェックするのは困難です。
  • タスクの汚染問題をチェックできるように、トレーニング データを公開することをお勧めします。

ある人はこう結論づけました。

  1. 既存のデータでAIをトレーニングする
  2. 人々はAIを多用し、現実世界を変えている
  3. AIは変化した世界に適応できず非効率になる

これはサイクルです。

論文: https://arxiv.org/abs/2312.16337.

参考リンク:
[1] https://twitter.com/ChombaBupe/status/1741531065032798360.

<<:  大規模モデルアプリケーションの探索 - エンタープライズ ナレッジ スチュワード

>>:  2023年の生成AIの包括的なレビュー

ブログ    
ブログ    

推薦する

...

Microsoft、Spark 向けディープラーニング ライブラリ MMLSpark をオープンソース化

[[207730]] Microsoft は、Apache Spark 用のディープラーニング ライ...

IoT技術は2024年までに成熟する

AI、機械学習 (ML)、5G、その他の接続サービスなどの IoT テクノロジーは 2024 年まで...

ビッグデータの3つの柱:データ、ブロックチェーン、アルゴリズム

[[180308]]環境は常に変化し、新しいテクノロジーが登場し、新しい組織が絶えず構築されており、...

AI葬儀:ロボットに自分の葬儀を執り行ってもらう勇気はありますか?

スマートな葬儀は常に議論の的となっている話題です。現状では、スマート葬儀サービスの応用製品にはまだま...

...

百度、中国初の「工業用」医療用モデル「霊益大モデル」を発売

百度は9月19日、国内初の「産業レベル」医療ビッグモデル「霊益ビッグモデル」を発表し、霊益ビッグモデ...

AIはすでにLeetCodeを実行できる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能の知能を実現する方法

[[257748]]近年、ビジネスにおける人工知能 (AI) の重要性が急速に高まり、今では主要なテ...

スタンフォード大学の64歳の学長が辞任!学術不正スキャンダルが勃発、95ページの調査報告書が公表

今日、衝撃的なニュースが突然飛び込んできました。スタンフォード大学のマーク・テシエ・ラヴィーンの学長...

2022 年に注目すべき音声技術の 10 大予測

2022年の音声技術に関する主な予測は次のとおりです。 [[434566]] AlexaやSiriの...

推薦システムにおけるランキング学習のための独自のアルゴリズム: Schiram ランキング

著者 | 王昊レビュー | Chonglou近年、推奨システムにおけるランク付け学習の応用は非常に稀...

人工知能は教育にどのような変化をもたらすのでしょうか?

[[441080]]経済観察記者 鄭躍新12月16日、中国教育部元副部長で中国教育国際交流協会会長...

「AIネイティブ」の潜在能力を解き放ち、新たな「サイバー空間」を切り拓くには?

2023年にAIが世界にどのような変化をもたらすかといえば、間違いなくビッグモデルの急速な発展が最...

ガートナー: 生成型 AI がデジタル ビジネスを強化する 3 つの方法

生成型人工知能 (GenAI) は、コンテンツ生成や会話型ユーザー インターフェイスに破壊的な影響を...