言語AIは自分の答えが正しいかどうかを知っていることが判明しました。バークレー大学や他の大学による新たな研究が人気を集めている

言語AIは自分の答えが正しいかどうかを知っていることが判明しました。バークレー大学や他の大学による新たな研究が人気を集めている

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

言語AIは人間と同等の自己検査能力を持つ:

最近、カリフォルニア大学バークレー校とジョンズ・ホプキンス大学の研究チームが次のことを示しました。

自分の答えが正しいかどうかを判断できるだけでなく、トレーニング後には質問に対する答えを知っている確率を予測することもできます。

研究結果が発表されると、白熱した議論が巻き起こり、一部の人々の最初の反応はパニックでした。

この成果はニューラルネットワーク研究にとってプラスの影響を与えると考える人もいます。

言語AIは自己検査能力を持つ

研究チームは、言語 AI モデルを自己評価するには、次の前提条件が必要であると考えています。

言語 AI は質問に答えるときに、その回答を調整します

ここでのキャリブレーションとは、言語 AI によって予測された回答の正しい確率が実際の確率と一致しているかどうかを指します。

このようにしてのみ、言語 AI はこの調整機能を使用して、出力する回答が正しいかどうかを評価できます。

最初の質問は、言語 AI は独自の回答を調整できるかどうかです。

この問題を証明するために、研究チームは AI 向けに 5 つの選択式の質問を用意しました。

回答の選択肢は、A、B、C の形式で示されます。

AI モデルの回答が偶然よりも頻繁に正しい場合、AI モデルによって提供された回答が調整されていることが証明されます。

テスト結果によると、言語 AI によって提供される回答は、いずれかのオプションが選択される可能性よりもはるかに正確です。

つまり、言語 AI モデルは独自の回答を非常に適切に調整できるということです。

しかし、研究チームは、言語AIのキャリブレーション能力は選択肢に対する答えが明確であるという前提に基づいていることを発見しました。

曖昧な「上記のいずれでもない」オプションを追加すると、言語 AI の調整機能が損なわれます。

つまり、特定の形式の複数選択問題では、言語 AI モデルは回答を非常に適切に調整できます。

この前提を明確にした後、次の問題は、言語 AI モデルが独自の回答が正しいかどうかを判断できるかどうかを検証することです。

このテストラウンドでは、AI モデルの予測が有効な決定境界に近づいています。

研究チームは、前回のテストからの質問と、言語 AI モデルの回答サンプルを選択しました。

同時に、AI モデルにその回答が真か偽かを選択させ、この「真」または「偽」の回答に基づいて AI モデルが有効な調整を行ったかどうかを分析します。

問題設定の例は以下のとおりです。

研究チームは、20回の真偽テストを行った後、言語AIモデルが自身の回答を「真」か「偽」かで評価する評価が明らかに調整されていることを発見した。

つまり、一定の範囲内で AI モデルにいくつかの質問がされた場合、AI モデルはこれらの質問に対する回答の真偽を、合理的かつ調整された信頼度レベルで評価します。

これは、言語 AI モデルが質問に対する自身の主張が正しいかどうかを実際に判断できることも証明しています。

最後に、研究チームは言語 AI モデルに、より難しい質問をしました。AI モデルは、与えられた質問に対する答えを知っているかどうかを予測するようにトレーニングできるでしょうか?

この部分では、研究チームはデータP(IK) (私はこの答えの確率を知っています)を導入し、トレーニングに次の2つのトレーニング方法のいずれかを選択しました。

  • ヘッド: P(IK) は追加の値ヘッドとしてトレーニングされ、モデルのロジットに追加されます (言語モデリング ロジットとは独立しています)。このアプローチの利点は、研究チームが P(IK) の一般的なマーカー位置を簡単に検出できることです。
  • 自然言語: この方法は比較的単純です。AI モデルが文字通り「この答えを知っている確率はどれくらいですか」と答え、パーセンテージ データの回答を出力する必要があります。

研究チームはトレーニングの初期段階では自然言語によるトレーニング方法を好んでいましたが、結果が有意ではなかったため、価値重視のアプローチに転向しました。ただし、研究チームは最終的にAIモデルのトレーニングは自然言語による方法に戻るとも述べています。

研究チームはトレーニング後、言語AIモデルがP(IK)をうまく予測できること、そしてこの予測能力がさまざまな種類の問題において部分的に普遍的であることを発見しました。

しかし、研究チームは、言語 AI モデルでは算数問題などの特定の種類の問題に対する OOD 調整に若干の困難があることも発見しました。

この学術的成果に関して、研究チームは、今後の方向性として、これらの成果を人間の文章を模倣することなく自己学習や事実推論の分野に拡張することだと述べています。

著者について

論文の責任著者であるジャレッド・カプラン博士は、理論物理学者であり、機械学習の専門家です。彼は現在、ジョンズ・ホプキンス大学の助教授です。彼の主な研究分野は、ニューラルモデルのスケーリング法則や GPT-3 言語モデルを含む機械学習の研究です。

共同著者の Saurav Kadavath 氏は Anthropic の研究者であり、現在はカリフォルニア大学バークレー校で EECS の修士号を取得中です。主な研究分野は機械学習、大規模言語学習などです。

<<:  認知分析について知っておくべきことすべて

>>:  ディープフェイクに取って代わると期待されていますか?今年最も注目されているNeRFテクノロジーの秘密を解き明かす

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

ビジネスにおいて人工知能との共生関係を築くには?

現代では、意図的か否かに関わらず、私たちは皆、人工知能に触れたり、人工知能を使用したりしています。私...

2024年に生成AIを支援する3つのテクノロジー

ChatGPT の素晴らしい初年度が終わりに近づくにつれ、生成型人工知能 (genAI) と大規模言...

...

顔認識における克服すべき困難

顔認識は、生体認証の分野、さらには人工知能の分野においても最も難しい研究テーマの 1 つと考えられて...

推薦システムにおける大規模言語モデルの実用化

1. 背景と課題従来の推奨モデルのネットワークパラメータの影響は比較的小さく(埋め込みパラメータを除...

機械学習では自然言語理解を解決できない

経験とデータに基づく革命統計革命は 1990 年代初頭に人工知能 (AI) に広がり、2000 年代...

AIストレージプラットフォームが機械学習とデータ分析のニーズを満たす方法

機械学習と AI タスクの実行方法や環境内でのデータの収集方法に応じて、組織はどの AI ストレージ...

Amazon Web Services は生成 AI の分野に全力で取り組んでいます。Amazon Q は将来の働き方を大きく変えるかもしれません。

最近、Amazon Web Services は、革新的な技術の再構築を通じて顧客がイノベーションを...

DeSRAは欠陥を検出して除去し、実際のシーンの超解像におけるGANをより完璧にします

生成的敵対的ネットワーク (GAN) を使用した画像超解像 (SR) は、リアルな詳細を復元する上で...

仮病を使って休暇を取る時代は終わり?イスラエルの企業が、45秒で病気を装う従業員を識別できるAIプログラムを開発

海外で流行が猛威を振るう中、多くの企業は従業員にリモートワークをさせざるを得ない状況となっている。そ...

GNN初心者必読! Google Research が、SOTA グラフ ニューラル ネットワークをゼロから構築する方法を教えます

[[422426]]近年、ニューラル ネットワークは自然言語、画像、音声、その他のデータで大きな進歩...