Google は、MLM 損失で直接事前トレーニングされた 24 個の小さな BERT モデルをリリースしました。

Google は、MLM 損失で直接事前トレーニングされた 24 個の小さな BERT モデルをリリースしました。

[[318598]]

Google は最近、24 個の合理化された BERT モデルをダウンロード用にリリースし、ホワイトバレンタインデーを前に NLP 研究者に素晴らしい贈り物を提供しました。

BERT はモデルが大きいため勝利しますが、モデルが大きいため敗北もします。
BERT が最初にリリースされたとき、「11 の記録を破る」という大看板を掲げ、圧倒的なパラメータ数でブレイクしました。 BERT の成功は、その大規模なモデルにあると言えます。しかし、一方では、その規模が BERT の成功につながっていますが、他方では、より広範な適用の障害にもなっており、それは 3 つの側面に反映されています。

障害1: リソースの占有

サイズが大きいため、膨大なストレージ リソースを占有する必要があり、大量のストレージ リソースを維持しながら大量のエネルギーも消費します。

障害2: 時間がかかりすぎる

BERT の作者である Jacob 氏はかつて、「BERT-Large モデルには 24 のレイヤーと 2014 の隠れユニットがあります。33 億語のデータセットで 40 エポックのトレーニングが必要であり、8 つの P100 では 1 年かかる可能性があります」と述べています。

障害3: コストが高い

かつて誰かが、3 つの主要な主流モデルのトレーニング コストはおよそ次のようになると計算しました。

  • BERT: 12,000ドル
  • GPT-2: 43,000ドル
  • XLネット: 61,000ドル

上記の問題を解決するために、BERTの簡易版が次々と登場している。

サイズは重要です。実は、上記 3 つの問題の原因はサイズにあるため、誰もが BERT の簡易版を継続的に研究し始めました。リソースが限られている場合、小型モデルには明らかな利点があります。

DistillBERT: BERT に基づく知識蒸留テクノロジーを使用して Hugging Face チームによってトレーニングされた小型 BERT。モデルサイズは40%(66M)削減され、推論速度は60%向上しましたが、パフォーマンスは約3%しか低下しませんでした。

ALBERT: モデル アーキテクチャを変更することで、サイズが大幅に削減されます。最小の ALBERT はわずか 12M、最大の ALBERT-XXLarge は 233M、BERT-Base は 110M です。しかし、サイズは縮小されたにもかかわらず、推論速度は大幅に向上しませんでした。

TinyBERT: 知識蒸留を使用してモデルを圧縮します。このモデルは華中科技大学とHuaweiが共同で制作しました。

Google が小型の BERT モデルをリリース

ちょうど昨日、Google は BERT GitHub リポジトリを更新し、英語の語彙に限定され大文字と小文字を区別しない 24 個の小規模な BERT モデルをリリースしました。

24 のモデルは WordPiece マスキングを使用してトレーニングされ、MLM 損失で直接事前トレーニングされており、標準トレーニングまたは最終タスク蒸留を介して下流のタスクに合わせて微調整できるため、MLM 蒸留のより洗練された事前トレーニング戦略よりも優れています。

理論的なガイダンスは、「読書量の多い学生はよりよく学ぶ: コンパクト モデルの事前トレーニングの重要性について」という論文から得られます。論文アドレス: https://arxiv.org/abs/1908.08962

小さな BERT モデルは、元の BERT 微調整方法に従って微調整するだけで済みますが、より大規模で正確な教師によって知識が抽出されると最も効果的です。

このリリースの BERT-Base モデルは、完全性のみを目的として、元のモデルと同じ条件で再トレーニングされていることに注意することが重要です。

GLUEスコア:


24 個の小さな BERT のダウンロード アドレス: https://storage.googleapis.com/bert_models/2020_02_20/all_bert_models.zip

<<:  ナレッジグラフは銀行のビジネスモデルをどのように変えるのでしょうか?

>>:  機械学習エンジニアとデータサイエンティストの違い

ブログ    
ブログ    

推薦する

機械学習ツールボックスには6つの重要なアルゴリズムが隠されています

1. 線形回帰フランスの数学者アドリアン・マリー・ルジャンドルは、彗星の将来の位置を予測することに常...

Nokelockの「1+2」戦略は、スマートロックを商業利用の新時代へと導きます

5月15日、世界有数のIoTロック企業であるnokelockの製品発表会が北京金宇シェラトンホテルで...

AIセキュリティリスクの予防と管理を強化するには、技術統合と法的規制に重点を置く必要がある

人工知能は、新たな科学技術革命と産業変革をリードする戦略的技術として、世界の主要国が科学技術の飛躍的...

放送・ホスティング業界における人工知能の限界についての簡単な分析

[[430680]]科学技術の継続的な発展により、人工知能は人間の生活のあらゆる側面に関わるだけでな...

...

...

TransformerはAI分野を支配するのでしょうか?結論を出すのは時期尚早だ

自然言語処理タスクから始まり、画像分類と生成の分野で活躍する無敵のトランスフォーマーは、次の伝説とな...

...

業界大手がIoTとAIを成功裏に導入するための3つのステップ

変化は避けられませんが、人間はそれに抵抗する傾向があります。エリザベス1世女王は、編み機の発明によっ...

機械学習を理解するには、「3つの魔法の武器」を理解するだけで十分です

クイズ番組「ジェパディ」の優勝者や囲碁の名人から、広告に関連した不名誉な人種プロファイリングまで、私...

2D ガール ジェネレーター、駆動可能なニューラル ネットワーク... 2019 年の優れた機械学習プロジェクト 17 選

2019 年のベスト オープンソース プロジェクトを選択するために、Medium のネットユーザーが...

4Kウィンドウの長さで長いテキストを読むことができ、陳丹奇の弟子がMetaと提携して、大規模なモデルでメモリを強化する新しい方法を立ち上げました

ウィンドウの長さが 4k でも、大きなモデルで大きなテキストを読み取ることができます。プリンストン大...

人工知能はブロックチェーンにどのような影響を与えるのでしょうか?

人工知能 (AI) の開発には、機械による継続的な学習が伴います。コンピュータが「スマート」になるた...

Facebook がアルゴリズム コード ライブラリ PySlowFast をオープンソース化、最先端のビデオ理解モデルを簡単に再現

Facebook AI Research は近年、ビデオ理解研究において多くの素晴らしい成果を上げて...