ついに、私は物語を作るのをやめました! AIが「グーグル」を学習、Q&Aの精度は90%

ついに、私は物語を作るのをやめました! AIが「グーグル」を学習、Q&Aの精度は90%

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

言語モデルは常に無関係な回答を出すため、これが最も批判されている問題の 1 つとなっています。

今、DeepMindは解決策を思いつきました——

モデルに人間のように「グーグル検索」を学習させ、質問に答え、議論を展開させます。

このモデルはGopherCiteと呼ばれ、次のように質問します。

GopherCite はどのようにして議論のソースを見つけるのでしょうか?

答えは次のようになります:

Google 検索を通じて関連するドキュメントを取得します。

DeepMindがこの研究を発表したページを引用しながら、答えの根拠も示されています。

そして、本当に理解できない質問に遭遇したときは、「わかりません」と言い、間違った答えを強制することはありません。

トレーニング結果によると、自然な質問データセットと ELI5 データセットでのモデルの精度率はそれぞれ90%80%に達し、人間のレベルに近いことがわかりました。

強化学習を使用してAIにGoogle検索を訓練する

まず、GopherCite の有効性を見てみましょう。

質問されたとき:

スクービー・ドゥーで、スクービーはどんな動物ですか?

GopherCite は次のように返信しました:

グレートデーン。

Wikipedia スクービー・ドゥーより。これは、土曜日の朝に放映されたティーン向けアニメシリーズで、フレッド・ジョーンズや、しゃべるグレート・デーン犬のスクービー・ドゥーなどのキャラクターが主役です。

議論を見つけることを学習した後、AI によって提供される回答がはるかに信頼できるものになることは容易にわかります。

実際、GopherCite の前身である超大規模言語モデル Gopher は、質問に答える際のパフォーマンスがはるかに悪かった。

Gopherは、DeepMind が昨年末にリリースした NLP モデルで、2,800 億個のパラメータが含まれています。

これは Transformer アーキテクチャに基づいており、10.5 TB の MassiveText コーパスでトレーニングされています。

ここで、DeepMind は説明のために例を挙げています。

Gopher と GopherCite が同じ質問に答えてみましょう。

レークプラシッドでは冬季オリンピックが何回開催されましたか?

ゴーファーは(間違って)答えました:

レークプラシッドでは1932年、1936年、1980年に冬季オリンピックが開催されました。

しかし、GopherCite は正しかった:

二度。

そして厳密な理由を述べた。

オリンピック開催都市の歴史から引用。冬季オリンピックは1932年と1980年にレークプラシッドで開催され、夏季オリンピックは1936年と1984年にロサンゼルスで開催されました。

では、GopherCite はどのように機能するのでしょうか?

研究者たちは、Gopher をベースに、強化学習を使った報酬メカニズムを開発しました。

質問を受け取ると、モデルは Google Search API にアクセスして関連する Web ページを見つけ、上位 K 件の結果を取得します。

(トップ K 操作、つまり、スコアのセットから k 個の最大または最小の要素を見つけることは、機械学習モデルの重要なコンポーネントであり、情報検索やデータ マイニングで広く使用されています。)

次に、質問に基づいていくつかの回答が生成され、回答の数 N は K より大きくなります。

これらの回答には、Web で検索された回答を含むテキストである独自の証拠も付属します。

次に、システムはこれらの回答にスコアを付け、最終的に最高スコアの回答を出力します。

推論中、モデルのサンプリングはドキュメントを周期的に反復処理します。各サイクルでは、単一のドキュメントから可能な限り多くのコンテキストを表示し、テキストを並べ替えて前のステップに戻します。

さらに、モデルは最終的に生成された回答の品質を計算し、生成された回答の質が低すぎる場合は回答しないことを選択します。

これは、レッドブルのスローガン「それはあなたに翼を与える」に由来しています。

ELI5Filtered データセットの質問の 70% に回答すると、精度は約 80% になります。

DeepMind によれば、このトレーニング モードはLaMDAに多少似ているとのことです。

LaMDA は、昨年の I/O カンファレンスで Google が発表した会話モデルです。人間の指示を「理解」し、流暢に応答し、論理と事実が正しいことを確認できます。

違いは、LaMDA は質問を共有するための関連リンクを直接提供することがあるのに対し、GopherCite は関連する議論の文章を直接抽出できることです。

さらに、OpenAIは最近GPTのウェブ版を開発した。   (WebGPT) も同様の方法を使用して GPT-3 を調整します。

DeepMind によると、WebGPT は Web ページを複数回訪問することで回答を整理するのに対し、GopherCite は長いテキスト セグメントの読み取りに重点を置いているとのことです。

間違いは起こるだろう

情報を引用する方法はわかっていますが、GopherCite ではそれを機械的に使用することがあります。

例えば、「レッドブルを飲むとどうなる?」と尋ねると、答えは「」です。

これは、レッドブルのスローガン「それはあなたに翼を与える」に由来しています。

どうやら比喩を理解させるのはまだ少し難しいようです...

ネットユーザーの中には、人間が自分でGoogleで検索したほうが早いかもしれないと不満を言う人もいた。

どう思いますか?

<<:  MITのロボット犬がまた進化しました。砂利や氷の上でも滑らずに走れます。今回は本当に犬と同じくらい安定しています

>>:  184.3億ドルを突破! 「中国スピード」が人工知能の分野で再び出現

ブログ    

推薦する

磁気リンクがAIサークルを席巻、87GBシードが直接オープンソースの8x7B MoEモデル

「ハイエンド」オープンソースでは、最も単純なリリース方法が採用されることが多いです。昨日、Mistr...

人工知能の未来を説明する15の統計

[[206292]]人工知能は非常に人気があり、それに対して楽観的な人もいれば、悲観的な人もいます。...

人工知能の3つの段階:統計学習から文脈適応へ移行中

物事が急速に進んでいるときは、立ち止まって自分がどこにいるのかを振り返ることが必要になることがよくあ...

...

...

2021 年のビジネス インテリジェンスの 7 つのトレンド

[[418205]]ビジネス インテリジェンスの応用は、近年、人工知能、機械学習、自然言語処理 (N...

...

米メディア記事:米中AI競争は東南アジアにとって何を意味するのか?

2月7日、アメリカの外交政策ウェブサイトは「米中人工知能競争は東南アジアにとって何を意味するのか?...

...

そうだ!機械学習を使用してビリビリの株価動向を予測する

[[418764]]この記事では、主にPythonを使用してビリビリの株価を分析する方法について説明...

...

「行動は言葉よりも雄弁である」:言語モデルはロボットにどのように適応するのか?

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

小さなターゲットを検出するためのディープラーニングの一般的な方法

[[427475]]導入ディープラーニングによる物体検出、特に顔検出では、解像度が低い、画像がぼやけ...

Sentinel のコールドスタート電流制限アルゴリズム

[[336019]]コールド スタート アルゴリズムは、トークン バケット アルゴリズムに基づいて実...