ゼロショット学習がCLIPを超える! Googleは、コンピューティングコストも削減できる初のマルチモーダルスパースモデルLIMoEを提案

ゼロショット学習がCLIPを超える! Googleは、コンピューティングコストも削減できる初のマルチモーダルスパースモデルLIMoEを提案

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

マルチモーダルモデルは一般的ですが、スパース化に基づくモデルが最初です。

Google の最新の成果であるLIMoE は、スパース化手法を画像とテキストのハイブリッド モデルに適用した初めての成果です。

大規模モデルのパラメータが指数関数的に増加すると、トレーニング コストも急上昇することを知っておく必要があります。

そのため、研修コストをいかに削減するかが、現在、学界が注力している重要な課題となっています。

Google が考え出した解決策は、ハードウェアで競争するのではなく、モデルそのものから始めることだった。

スパース化法を使用すると、タスクを完了するために各入力に対してネットワークの一部のみをアクティブ化する必要があります。

モデル内には多数の「エキスパート」が設定されており、各「エキスパート」は対応する部分の入力を処理するだけでよく、タスク状況に応じて必要に応じて「エキスパート」を使用することができます。

このように、モデル容量が大きくても計算コストが劇的に増加することはありません

パフォーマンスも低下しません。

新しい手法 LIMoE は、ゼロショット学習タスクで CLIP を直接上回りました。

ネットユーザーが叫んだのも不思議ではない。

あなたの API を私たちと共有してください!

異なる「専門家」に異なるタスクを任せる

ディープラーニングでは、テキストと画像のタスクを同時に処理できることは珍しくありません。

しかし、過去に一般的だったマルチモーダル学習方法では、単一の入力に対してネットワーク全体をアクティブ化する必要がよくありました。

今回Googleが提案した新しい手法の最大のハイライトは、この分野で初めてスパースモデルが使用される点だ。

スパース化の方法は、モデル全体ですべての入力を処理させないことです。

ニューラル ネットワークを分割することで、ニューラル ネットワークは「特殊化」され、異なるサブモデルは固定された種類のタスクまたはデータのみを処理します。

しかし、完全に分離されているわけではなく、モデル内には共有される部分が残っています。

これを基にしたモデルがMoE (Mixture-of-Expertsレイヤー)であり、エキスパート混合モデルと呼ばれます。

つまり、Transformer アーキテクチャをベースに、「エキスパート レイヤー」が追加されます。

これは、元のフィードフォワード ネットワークを置き換える並列 FNN です。

ここでの「専門家」とは、モデル内のさまざまなサブモデルを指します。

各サブモデルは異なる入力に特化しています。

各層の専門家は、入力データに基づいて専門家をアクティブ化するゲーティング ネットワークによって制御されます。

ゲーティング ネットワークは、ラベルごとに、データを処理するために最も適切なエキスパートを選択します。

新たに提案された LIMoE により、MoE は実際に画像とテキストを同時に処理できるようになります。

具体的には、LIMoE に比較学習を行わせることです。

多数の画像とテキストのペアでトレーニングすると、ネットワーク内の画像モデルは画像表現を抽出し、テキストモデルはテキスト表現を抽出します。

同じ画像とテキストのペアの場合、モデルは画像とテキストの表現を近づけます。

逆に、異なる画像とテキストのペアの場合、対応する表現は互いに離れていきます。

これによる直接的な利点は、ゼロサンプル学習を実現できることです。

たとえば、画像の表現が「犬」というテキストの表現に近い場合、犬として分類されます。

この考え方は何千もの状況に拡張できます。

実際、CLIP と ALIGAN はどちらもこのアイデアを使用しており、ImageNet データセットでの精度はそれぞれ 76.2% と 76.4% です。

LIMoE-L/16は78.6%に達し、CLIPを上回りました。

事前トレーニングなしのLIMoE H/14は84.1%の精度を達成できます。

Googleは、LIMoEの専門家の間でも興味深い現象をいくつか発見したと述べた。

たとえば、トレーニング設定では、テキスト注釈よりも画像注釈の方がはるかに多いため、すべての専門家がタスクである程度画像を処理します。

ただ、画像を中心に処理するものもあれば、テキストを中心に処理するもの、あるいはその両方を処理するものもあります。

また、ほとんどの場合、テキスト表現を含むすべての画像パッチを処理する専門家がいます。

パフォーマンスの向上に加えて、スパース モデルを使用する利点は、計算コストの削減にも反映されます。

「マルチエキスパート」モデルでは、より多くのサブモデルが設定され、モデル容量が大幅に増加しますが、実際の計算コストは​​それほど変わりません。

タスクに 1 つのサブモデルのみを使用する場合、そのコストは標準の Transformer のコストと同様になります。

たとえば、LIMoE-H/14 には合計 56 億個のパラメータがありますが、スパース化により、トークンあたり 6 億 7,500 万個のパラメータのみが使用されます。

もう一つ

スパース モデルは Google で常に徹底的な研究の方向となっており、MoE や GLaM を含むいくつかのモデルが提案されてきました。

この LIMoE は、Google が MoE を変更した初めてのケースではありません。

昨年6月には新しいビジュアルアーキテクチャであるV-MoEを提案し、今年はすべてのコードをオープンソース化しました。

<<:  ローコード自動化が銀行業務をどう変えるか

>>:  合成データは AI/ML トレーニングの未来を推進するでしょうか?

ブログ    
ブログ    

推薦する

企業が人工知能を導入する際に知っておくべき5つの誤解

[[392106]] AI は広く普及しているにもかかわらず、知識と認識のギャップにより、商業的な導...

2,000 ドル相当のコースノートをオープンソース化しました。講演者はKaggleの元チーフサイエンティストです!

数日前、fast.ai の創設者であり、Kaggle の元主任科学者である Jeremy Howar...

自然言語処理の商業的価値を示す5つの成功事例

これら 5 つの組織は、自然言語処理 (NLP) を使用して、顧客へのサービスの向上、反復的なタスク...

2019 年の 9 つの AI トレンド、準備はできていますか?

人工知能は成長して以来、絶え間ない混乱に悩まされてきましたが、特に近年は人工知能が発展の黄金期に入り...

Python 実用コード - 無限分類ツリー構造生成アルゴリズム

バックエンド開発者にとっては、無限レベルの分類に強い印象を受けたのではないでしょうか。最初はかなり時...

仮想通貨取引ロボットが手動取引に取って代わり、システム開発が進む

定量取引は高頻度取引の一種です。毎日無数の取引ペアが生成されます。手動で行う場合、多くの市場機会が不...

自動配送物流における人工知能の応用

[[406604]]コロナウイルスの流行を受けて、企業はサプライチェーンの複雑性と労働力不足の課題を...

Facebook、黒人男性を霊長類と認識したアルゴリズムについて謝罪

[[422559]]ビッグデータ概要著者: ミッキー6月27日に英国のデイリーメール紙が公開した動画...

ChatGPTが公式検出ツールを削除、AIテキストは識別できないことを認める

OpenAI は、何の発表もなく、ひっそりと AI テキスト検出ツールをシャットダウンし、ページは直...

...

紆余曲折の続く教育+AI。舞台裏へのシフトは、巨大企業の拡大に向けた「新たな春」となるのか?

現在、人工知能技術は多くの産業に大きな影響を与えています。その中で、近年最もホットな産業である教育は...

人工知能は「人工知能」にどれだけ「知性」を押し付けているのか

真に AI を活用したサービスを構築するのは簡単ではありません。そこで、一部のスタートアップ企業は、...

ロボットの黄金時代が来るのか?協働ロボットが主流になりつつある

海外メディアの報道によると、2018年のホリデーショッピングシーズンは、オンライン売上高が1,260...

Musk xAI初の研究成果公開!創立メンバーのヤン・ゲとヤオクラスの卒業生が共同で創設した

マスク氏のxAI、初の公開研究成果がここに!共著者の一人は、xAI の創設メンバーであり Shing...