「ドメイン外」テキストは不要、Microsoft: NLP はターゲットを絞った方法で事前トレーニングする必要がある

「ドメイン外」テキストは不要、Microsoft: NLP はターゲットを絞った方法で事前トレーニングする必要がある

[[337084]]

バイオメディカルなどの専門分野では、NLP モデルのトレーニングには、特定のデータセットに加えて、「ドメイン外」のテキストも有用であると見なされる必要があります。しかし最近、マイクロソフトの研究者は「そうは思わない」と叫んでいます。

事前トレーニングとは何ですか?

これは、人工知能に詳しくない人にとっては、魂を問う質問です。

人間である私たちは、すべてを一から学ぶ必要はありません。しかし、私たちは「古い知識を使って新しいことを学ぶ」、つまり過去に学んだ古い知識を使って新しい知識を理解し、さまざまな新しいタスクを処理することになります。

人工知能では、事前トレーニングは人間のこのプロセスを模倣することです。

事前トレーニングという用語は論文でよく見られ、これはモデルを 1 つのタスクでトレーニングして、他のタスクで使用できるパラメータを形成することを指します。

学習したタスクのモデル パラメータを使用して、新しいタスクのモデル パラメータを初期化します。このように、古い知識は、新しいモデルがゼロから始めるのではなく、古い経験から新しいタスクを正常に実行するのに役立ちます。

これまでの研究では、バイオメディカルなどの専門分野では、ドメイン固有のデータセットを使用すると、NLP モデルのトレーニングの精度が向上することが示されています。しかし、「外国語」のテキストも有用であるという一般的な認識もあります。

[[337085]]

しかし!マイクロソフトの研究者たちはその仮定に異議を唱えた。

[[337086]]

最近、マイクロソフトの研究者は、生物医学 NLP 用のドメイン固有言語モデルを事前トレーニングするための人工知能テクノロジを提案しました。そして、公開データセットから「包括的な」生物医学NLPベンチマークをコンパイルすることで、固有表現認識、証拠に基づく医療情報抽出、文書分類などのタスクで最先端の結果を達成したと自信を持って述べています。

彼らは、「混合ドメイン」の事前トレーニングを考えていますか?それは転移学習の別の形ではないでしょうか?ソース ドメインは一般的なテキスト (ニュースなど) であり、ターゲット ドメインは専門的なテキスト (生物医学論文など) です。

これに基づくと、特定のドメイン向けの生物医学 NLP モデルの事前トレーニングは、一般的な言語モデルの事前トレーニングよりも常に優れており、「混合ドメイン」の事前トレーニングは完璧ではないことがわかります。

ニューラル言語モデルを事前トレーニングするための 2 つのパラダイム。 「混合ドメイン」事前トレーニング(上);ドメイン内テキストのみを使用した事前トレーニング(下)

研究者たちはその自信を裏付ける証拠を持っている。

彼らは、バイオメディカル NLP アプリケーションへの影響を調べることで、事前トレーニング モデリングとタスク固有の微調整を比較しました。

最初のステップとして、彼らは生物医学言語理解および推論ベンチマーク (BLURB) と呼ばれるベンチマークを作成しました。これは、PubMed (生物医学関連のデータベース) が提供する出版物に焦点を当て、関係抽出、文の類似性、質問応答などのタスクと、はい/いいえの質問応答などの分類タスクをカバーしています。要約スコアを計算するには、BLURB のコーパスをタスク タイプ別にグループ化し、個別にスコアを付けてから、全体の平均を計算します。

評価のために、彼らは語彙を生成し、最新の PubMed 文書 (1,400 万件の要約と 32 億語、合計 21 GB) でモデルをトレーニングしました。トレーニングには、16 枚の V100 グラフィック カードを搭載した 1 台の Nvidia DGX-2 マシンで約 5 日間かかりました。このモデルのステップ長とバッチ サイズは 62,500 で、これは以前の生物医学事前トレーニング実験で使用された計算量に匹敵します。

研究者らは、自分たちのモデルである PubMedBERT が Google の BERT をベースに構築されているという点も確信していると述べた。

あのすごいBERT? 2018年にGoogleが提案したNLPモデルは、近年のNLP分野において最も画期的な技術となっています。

[[337087]]

しかし興味深いことに、事前トレーニング テキスト (168 億語) に PubMed の全文を追加すると、事前トレーニング時間が長くなるまでパフォーマンスがわずかに低下します。しかし研究者たちは、これは部分的にはデータ内のノイズによるものだと考えている。

「本論文では、ニューラル言語事前トレーニング モデル (つまり、「混合ドメイン」事前トレーニング) における一般的な仮定に異議を唱え、特定のドメインでゼロから事前トレーニングを行うことで、「混合ドメイン」事前トレーニングよりも大幅に優れたパフォーマンスが得られることを示します。 「私たちはバイオメディカルNLPアプリケーションにおいて、新たな最先端の成果を達成しました」と研究者らは記している。「今後は、分野固有の事前トレーニング戦略をさらに探求し、BLURBベンチマークを臨床分野やその他の価値の高い分野に拡張していきます。」

バイオメディカル NLP の研究を促進するために、研究者は BLURB ベンチマークを特集したリーダーボードを作成しました。彼らはまた、事前にトレーニングされたタスク固有のモデルをオープンソースとしてリリースしました。

この研究はプレプリントウェブサイトarxivに掲載されました。

<<:  ファーウェイはAscend AIフルスタックソフトウェアプラットフォームをリリースし、AI開発がコンピューティングパワーとアプリケーションのギャップを埋めるのを支援します。

>>:  スノーフレークアルゴリズムの実装原理を理解する

ブログ    

推薦する

AlibabaのBladeDISCディープラーニングコンパイラが正式にオープンソース化

ガイドディープラーニングの継続的な発展により、AI モデルの構造は急速に進化しており、基盤となるコン...

ゲームにおけるディープラーニングと AI

[[190049]]この記事は、4月27日にBig Data Talk WeChatコミュニティで...

中国のAI企業は世界の資金の70%を占めているが、その巨大なブームの裏には隠れた懸念がある

今年に入ってから、人工知能分野の発展は新たな盛り上がりを見せています。消費者レベルの人工知能アプリケ...

拡散モデル画像理解力がSOTAをリフレッシュ! ByteDance Fudanチームが新たな「メタプロンプト」戦略を提案

テキストから画像への (T2I) 拡散モデルは、大規模な画像とテキストのペアで事前トレーニングされて...

ビッグモデルが明らかに:ユーザーレビューから金脈を抽出する方法

著者 | 崔昊レビュー | Chonglouまとめこの論文では、大規模な言語モデルと LangCha...

超人工知能は人類を滅ぼすのか?

[[410355]]北京時間7月9日、ジョージ・ドヴォルスキー氏のスーパー人工知能に関する意見は次...

人工知能が再び懸念を呼ぶ! AIが独自の「デジタル感覚」を進化させたのは、祝福か呪いか?

科学の最前線から世界を眺め、熱心に学び、宇宙を理解するホーキング博士はかつて、人工知能(AI)の発達...

...

VRシルキーパノラマはもうすぐそこ? Googleの360°NeRFは人々に未来を垣間見せる

少し前に、CVPR 2022 が今年の論文採択結果を発表しましたが、これは提出された論文がようやく沈...

アリババAIは1日1兆回以上呼び出され、中国を代表する人工知能企業に

アリババは9月26日、杭州で開催された雲奇大会で、初めて同社の人工知能通話の規模を発表した。1日あた...

ブロックチェーン投資の10大リスクポイント。これらを理解していないなら投資しないでください!

「ブロックチェーン」という言葉は、間違いなく過去1年間で最もホットな投資概念です。ビットコインなど...

より賢い人工知能が人間に取って代わるのはもうすぐなのでしょうか?

人工知能の発展により、機械ははるかに賢くなりました。コンピュータプログラムさえ設定しておけば、多くの...

...

複数の機械学習モデルインスタンスを素早く比較する

導入機械学習プロジェクトに取り組むとき、すべてのデータ サイエンティストが直面しなければならない質問...

...