ついに、私は物語を作るのをやめました! AIが「グーグル」を学習、Q&Aの精度は90%

ついに、私は物語を作るのをやめました! AIが「グーグル」を学習、Q&Aの精度は90%

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

言語モデルは常に無関係な回答を出すため、これが最も批判されている問題の 1 つとなっています。

今、DeepMindは解決策を思いつきました——

モデルに人間のように「グーグル検索」を学習させ、質問に答え、議論を展開させます。

このモデルはGopherCiteと呼ばれ、次のように質問します。

GopherCite はどのようにして議論のソースを見つけるのでしょうか?

答えは次のようになります:

Google 検索を通じて関連するドキュメントを取得します。

DeepMindがこの研究を発表したページを引用しながら、答えの根拠も示されています。

そして、本当に理解できない質問に遭遇したときは、「わかりません」と言い、間違った答えを強制することはありません。

トレーニング結果によると、自然な質問データセットと ELI5 データセットでのモデルの精度率はそれぞれ90%80%に達し、人間のレベルに近いことがわかりました。

強化学習を使用してAIにGoogle検索を訓練する

まず、GopherCite の有効性を見てみましょう。

質問されたとき:

スクービー・ドゥーで、スクービーはどんな動物ですか?

GopherCite は次のように返信しました:

グレートデーン。

Wikipedia スクービー・ドゥーより。これは、土曜日の朝に放映されたティーン向けアニメシリーズで、フレッド・ジョーンズや、しゃべるグレート・デーン犬のスクービー・ドゥーなどのキャラクターが主役です。

議論を見つけることを学習した後、AI によって提供される回答がはるかに信頼できるものになることは容易にわかります。

実際、GopherCite の前身である超大規模言語モデル Gopher は、質問に答える際のパフォーマンスがはるかに悪かった。

Gopherは、DeepMind が昨年末にリリースした NLP モデルで、2,800 億個のパラメータが含まれています。

これは Transformer アーキテクチャに基づいており、10.5 TB の MassiveText コーパスでトレーニングされています。

ここで、DeepMind は説明のために例を挙げています。

Gopher と GopherCite が同じ質問に答えてみましょう。

レークプラシッドでは冬季オリンピックが何回開催されましたか?

ゴーファーは(間違って)答えました:

レークプラシッドでは1932年、1936年、1980年に冬季オリンピックが開催されました。

しかし、GopherCite は正しかった:

二度。

そして厳密な理由を述べた。

オリンピック開催都市の歴史から引用。冬季オリンピックは1932年と1980年にレークプラシッドで開催され、夏季オリンピックは1936年と1984年にロサンゼルスで開催されました。

では、GopherCite はどのように機能するのでしょうか?

研究者たちは、Gopher をベースに、強化学習を使った報酬メカニズムを開発しました。

質問を受け取ると、モデルは Google Search API にアクセスして関連する Web ページを見つけ、上位 K 件の結果を取得します。

(トップ K 操作、つまり、スコアのセットから k 個の最大または最小の要素を見つけることは、機械学習モデルの重要なコンポーネントであり、情報検索やデータ マイニングで広く使用されています。)

次に、質問に基づいていくつかの回答が生成され、回答の数 N は K より大きくなります。

これらの回答には、Web で検索された回答を含むテキストである独自の証拠も付属します。

次に、システムはこれらの回答にスコアを付け、最終的に最高スコアの回答を出力します。

推論中、モデルのサンプリングはドキュメントを周期的に反復処理します。各サイクルでは、単一のドキュメントから可能な限り多くのコンテキストを表示し、テキストを並べ替えて前のステップに戻します。

さらに、モデルは最終的に生成された回答の品質を計算し、生成された回答の質が低すぎる場合は回答しないことを選択します。

これは、レッドブルのスローガン「それはあなたに翼を与える」に由来しています。

ELI5Filtered データセットの質問の 70% に回答すると、精度は約 80% になります。

DeepMind によれば、このトレーニング モードはLaMDAに多少似ているとのことです。

LaMDA は、昨年の I/O カンファレンスで Google が発表した会話モデルです。人間の指示を「理解」し、流暢に応答し、論理と事実が正しいことを確認できます。

違いは、LaMDA は質問を共有するための関連リンクを直接提供することがあるのに対し、GopherCite は関連する議論の文章を直接抽出できることです。

さらに、OpenAIは最近GPTのウェブ版を開発した。   (WebGPT) も同様の方法を使用して GPT-3 を調整します。

DeepMind によると、WebGPT は Web ページを複数回訪問することで回答を整理するのに対し、GopherCite は長いテキスト セグメントの読み取りに重点を置いているとのことです。

間違いは起こるだろう

情報を引用する方法はわかっていますが、GopherCite ではそれを機械的に使用することがあります。

例えば、「レッドブルを飲むとどうなる?」と尋ねると、答えは「」です。

これは、レッドブルのスローガン「それはあなたに翼を与える」に由来しています。

どうやら比喩を理解させるのはまだ少し難しいようです...

ネットユーザーの中には、人間が自分でGoogleで検索したほうが早いかもしれないと不満を言う人もいた。

どう思いますか?

<<:  MITのロボット犬がまた進化しました。砂利や氷の上でも滑らずに走れます。今回は本当に犬と同じくらい安定しています

>>:  184.3億ドルを突破! 「中国スピード」が人工知能の分野で再び出現

ブログ    
ブログ    
ブログ    

推薦する

チューリング賞受賞者:人工知能を実装したものは、もはや人工知能とは呼ばれない

1956年、マッカーシーはダートマス大学で開催された会議で初めて「人工知能」の概念を提唱した。後に、...

2024 年の IT 管理トレンド: ジェネレーティブ AI など

2023 年の幕がゆっくりと下りる中、IT 業界は楽観と慎重さをもって新年を待ち望んでいます。警戒感...

企業は今年AIに500億ドルを費やすが、成果はあまり出ないだろう

Uberは過去5年間で25億ドルを費やしてきたが、自動運転車による配達の実現にはまだ程遠い。今年の世...

世界を驚かせたNASAの火星無人機はどのように設計されたのか?

すべてがうまくいけば、インジェニュイティは火星上空を飛行する最初の航空機となる。 「インジェニュイテ...

スマートリテール特別セッションの登録が開始されました。Baidu Brainが上海でAI+リテールの新たな活用法について議論します。

小売業と聞いて何を思い浮かべますか?独身の日のお買い物ラッシュ?クリスマス カーニバル?それとも階下...

ビッグデータと人工知能 - 機械的思考から統計的思考へ

[[384196]]今日は、ビッグデータ、人工知能、認知問題の解決の関係ロジックについて話す記事を書...

...

2018年のソフトウェア開発に関する10の予測、注目のブロックチェーンとAIを含む

[[221321]]ブロックチェーン、NLP、AI 駆動型ツール、機械学習、サーバーレス コンピュー...

CreditEase の R&D ディレクター、張振氏: 運用・保守ロボットのタスク決定システムの進化

[51CTO.comより引用] 2018年5月18日〜19日、51CTO主催のグローバルソフトウェア...

...

トレーニングは不要、自動的にスケーラブルなビジュアルトランスフォーマーが登場

現在、ビジョントランスフォーマー (ViT) の分野には 2 つの大きな問題点があります。1. Vi...

いくつかの単純な負荷分散アルゴリズムとそのJavaコード実装

1. 負荷分散とは何ですか?負荷分散(英語名は Load Balance)とは、複数のサーバーを対称...

AI のゴッドファーザーであるヒントンは、なぜ自らが作り出した人工知能を恐れているのでしょうか?

ジェフリー・ヒントンは、コンピューターに学習方法を教えることに生涯を費やしてきました。今、彼は人工脳...

都市の気質を改善し、住みやすい環境を守る。AIはガバナンスの閉ループを開く

「新しいインフラ」は新たな方向性を表しています。新旧の成長原動力の転換という文脈において、「新インフ...

将来を見据えたデータセキュリティのためのAIソリューション

今日、ビジネスリーダーは急速に進化するデジタル世界における多数のデータセキュリティの脅威に対処してい...