200語あれば本一冊分は読める。GPT-3はすでに小説の要約を書くことができる

200語あれば本一冊分は読める。GPT-3はすでに小説の要約を書くことができる

[[425896]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

今、AI は 120,000 語の小説をわずか 200 語で読むのを手伝ってくれます。

たとえば、『高慢と偏見』からの 121,567 語の文章は次の通りです。

△画像出典:OpenAI公式サイト

AIは次の4つの段階にまとめることができます。

元のテキストは、最初に 276 の要約 (24,796 語) に要約され、次にさらに 25 の要約 (3,272 語) に圧縮され、最後に 4 つの要約 (475 語) に圧縮されました。

最終的な結果は 175 語の要約であり、これは元のセグメントの 1000 分の 1 の長さにすぎません。

大まかな翻訳の後、主要なプロットを述べます。

このレベルの理解力があれば、あるインスタントラーメン製造機を見たときに涙を流さずにはいられない。

これは、あらゆる長さの本の要約を書くことができる OpenAI の最新モデルです。

平均して、100,000 語を超えるトレーニング テキストは、最終的には 400 語未満に圧縮されます。

これも OpenAI の優れたナイフスキルから生まれたものです。そうです、これはトレーニング用に GPT-3 データセットから書籍/小説の部分を抽出して得られたモデルです。

では、早速、この微調整された GPT-3 モデルを見てみましょう。

再帰的なタスク分解

まず、「テキストの段落を要約する」というタスクをアルゴリズム的に分解してみましょう。

テキストが十分に短い場合は、直接要約します。長い場合は、テキストを小さなチャンクに分割し、各チャンクを再帰的に要約します。

これにより、要約タスク ツリーが形成されます。

リーフ タスクのみが、本の元のテキストに対して動作します。

さらに、生成された要約は同じ深さに配置され、順番に連結される必要があります。

たとえば、上の図の青いタスクの前回の要約出力は、点線で表されています。このように、各要約は前のタスク (前のテキスト) から自然に流れ出るため、離れている段落でも本当に「文脈をつなげる」ことができます。

次に、トレーニングを開始します。

  1. 上記のタスク ツリーに従って、書籍とそのサブサマリーを再帰的にタスクにグループ化します。
  2. トレーニングを伴うサマリータスクに対応するノードをツリーから抽出します。
  3. トレーニング データを取得し、ノードに入力します。
  4. トレーニング データを使用してモデルを微調整します。

このうち、すべてのトレーニング データは GPT-3 のブック セクションから取得されます。

研究者たちは、物語性のない本を避け、フィクション(平均10万語以上)を優先した。なぜなら、こうした文脈に重きを置いたテキストは要約作業がより難しいからだ。

このトレーニング プロセスは、新しいモデル、異なるノード サンプリング戦略、および異なるタイプのトレーニング データ (デモと比較) を使用して反復できます。

デモンストレーション データの場合、動作クローニング (BC) に標準のクロス エントロピー損失関数が使用されます。

比較データには、人間の好みに合わせてトレーニングされた報酬モデルに対して強化学習 (RL) が使用されます。

強化学習には、サンプリング タスクの 3 つのバリエーションもあります。

  • 木全体
  • 最初のサブツリー
  • 最初の葉

トレーニングが完了したら、要約が行われ、タスクの最終目標は物語のタイムラインと全体的なテーマをたどることです。

各要約サブタスクの目標は、テキストを 5 ~ 10 倍圧縮し、長さを 128 ~ 384 シンボルに制限することです。

既存の類似モデルよりも優れている

実験段階では、研究者らは、ファンタジー、ホラー、ロマンス、ミステリーなど約20のジャンルを網羅した、Goodreads 2020リストで最も人気のある40冊の本を使用した。

次に、2 人の人間の研究者とモデルに同時に要約を依頼し、両者間の要約品質の一貫性が 80% 近くになることが求められました。

モデルサイズは175Bと6Bに分かれており、トレーニングモードも前述の強化学習の3つのバリアントタスクに分かれています。

最終結果では、最初のサブツリー RL とフルツリー RL の要約タスクが人間のレベルに最も近いことがわかります。

さらに、175B モデルの要約の 5% 以上が 6 点 (7 点満点) を獲得し、要約の 15% 以上が 5 点を獲得しました。

研究チームは、最近提案された BookSum データセットでもこれをテストしましたが、結果は既存の長文要約モデルよりも優れていました。

また、要約が原文に対する疑問に答えられるかどうかも評価方法の一つです。

そこで、チームは要約モデルを NarrativeQA の質問応答データセットに適用し、質問応答について明示的にトレーニングされていないにもかかわらず、すべての指標で最先端の結果を達成したことを確認しました。

著者について

この研究はOpenAIのOpenAI Alignmentチームによるもので、同チームは現時点でこのモデルをオープンソース化する計画はないと述べた。

論文の筆頭著者であるジェフ・ウー氏はMITで学士号と修士号を取得し、OpenAIに入社する前はGoogleで働いていた。

[[425897]]

共同筆頭著者の Long Ouyang 氏は、ハーバード大学で学士号を取得し、スタンフォード大学で認知心理学の博士号を取得しました。彼の主な研究分野は、認知科学と確率的プログラミングです。

[[425898]]

紙:
https://arxiv.org/abs/2109.10862

OpenAI公式サイト紹介:
https://openai.com/blog/summarizing-books/

<<:  最も偽のGANモデル! Facebook、史上最強の移行機能を備えたIC-GANをリリース

>>:  3分で振り返る!2021年9月のロボット分野の重要な動向を概観

ブログ    
ブログ    

推薦する

全国人民代表大会代表劉清鋒氏:2019年は人工知能の大規模応用の年となる

[[258931]]今日の科学技術分野における最も最先端のトピックとして、人工知能は3年連続で政府活...

光量子コンピュータ「九章3号」が発売されました!スーパーコンピューターの1000億倍の速さ、USTCのパン・ジアンウェイ氏のチームより

私の国の量子コンピューティングは新たな進歩をもたらしました。 USTC公式ウェブサイトからのニュース...

2年後、マスクはついに「脳内挿管」というブラックテクノロジーをリリースし、脳コンピューターインターフェースを革新した。

設立から2年を経て、マスク氏の有名な脳コンピューターインターフェース研究会社Neuralinkがつい...

...

人工知能が美女を元の姿に戻す方法

誰もが美を愛しますが、誰もが生まれながらに美しさを持っているわけではないので、さまざまな種類の写真美...

人工知能は大量失業を引き起こすでしょうか?中国人民政治協商会議全国委員会によるこの調査は、その答えを提供している。

2019年の注目産業よく知られている5G、ブロックチェーン、インターネットに加えてもう一つは人工知...

...

90年代以降は人工知能で年間数百万ドルを稼ぐ、Google、Microsoft、BATの給与リストが明らかに

年末には給与に関する議論が再び盛り上がる。昨日、馬化騰氏は抽選で従業員に30万元相当のテンセント株1...

サイバーセキュリティにおける人工知能の役割

人工知能(AI)が社会に普及するにつれ、サイバーセキュリティの分野にも参入してきました。 AI は、...

教育におけるAIの想像力と限界

広東省の有名な重点中学校である広亜中学校は最近、電子ブレスレット3,500個を購入するために485万...

...

...

人工知能 (AI): 2022 年に注目すべき 7 つのトレンド

2022年は人工知能が実験段階から基礎段階へと移行する年となるでしょう。成熟した技術の重要な指標につ...

あなたの GPU は Llama 2 のような大規模なモデルを実行できますか?このオープンソースプロジェクトを試してみてください

コンピューティング能力が重要視される時代に、GPU は大規模モデル (LLM) をスムーズに実行でき...

自動運転が何千もの家庭に普及するまでにどれくらいの時間がかかるのでしょうか?

2019年9月に百度、海亮科技、センスタイムなどの企業が世界初の自動運転車の商用ライセンスを取得し...