新しいマルチモーダル大型モデルがリストを独占!画像とテキストの混合入力をサポートしているので、知識がわからなくても学習できます

新しいマルチモーダル大型モデルがリストを独占!画像とテキストの混合入力をサポートしているので、知識がわからなくても学習できます

マルチモーダル大型モデルファミリーに新しいメンバーが加わりました!

複数の画像とテキストを組み合わせて分析できるだけでなく、ビデオ内の空間的および時間的な関係を処理することもできます。

この無料のオープンソース モデルは、MMbench と MME の両方のリストでトップになり、現在の浮動ランキングでもトップ 3 に留まっています。

△MMBenchリスト、MMBenchは上海AIラボと南洋理工大学が共同で立ち上げたChatGPTに基づく総合的なマルチモーダル能力評価システムです。

△MMEリスト、MMEはテンセントYoutuラボと厦門大学が実施したマルチモーダル大規模言語モデル評価である。

このマルチモーダル大規模モデルはMMICLと呼ばれ、北京交通大学、北京大学、UCLA、祖智マルチモーダル社などの機関が共同で立ち上げたものです。

MMICL には、Vicuna と FlanT5XL コア モデルという異なる LLM に基づく 2 つのバージョンがあります。

どちらのバージョンもオープンソースです。FlanT5XL バージョンは商用利用が可能ですが、Vicuna バージョンは科学研究目的でのみ使用できます。

MME のマルチタスク テストでは、 MMICLの FlanT5XL バージョンが数週間連続でトップの座を維持しています。

その中で、認知面は総合スコア428.93(800点満点)を獲得し、他のモデルを大きく上回る第1位を獲得しました。

知覚における総合スコアは1381.78(2000点満点)で、最新のリストではアリババの千問7Bと崑崙万為の天宮モデルに次ぐ2位となっている。

必要な構成に関しては、公式発表では、トレーニング フェーズでは 6 台の A40 が必要であり、推論フェーズは 1 台の A40 で実行できるとされています。

トレーニングの第 2 段階を完了するには、オープンソース データセットから構築された0.5M のデータのみが必要で、これには数十時間しかかかりません。

では、この大規模なマルチモーダルモデルの特徴は何でしょうか?

ビデオを視聴して、学んだことを応用することができます。

MMICL はテキストと画像を織り交ぜたプロンプトをサポートしており、WeChat でのチャットと同じくらい自然に使用できます。

通常の会話形式で 2 つの画像をMMICLに入力すると、それらの類似点と相違点を分析できます。

MMICL は、強力な画像分析機能に加えて、「学習して適用する」方法も知っています。

たとえば、 MMICLに「Minecraft」のピクセル風の馬を与えます。

トレーニング データはすべて現実世界のシーンであるため、 MMICL はこの過度に抽象的なピクセル スタイルのシーンを認識しません。

しかし、 MMICLにいくつかの例を学習させれば、すぐに類推推論を実行できるようになります。

下の図では、 MMICL は馬、ロバ、何もない 3 つのシーンを学習し、背景が変更された後にピクセルの馬を正しく識別しました。

写真だけでなく、ダイナミックなビデオもMMICLでは問題ありません。各フレームの内容を理解できるだけでなく、時間と空間の関係を正確に分析することもできます。

ブラジルとアルゼンチンのサッカーの試合を見てみましょう。MMICL両チームの行動を正確に分析しました。

また、ブラジルの選手がアルゼンチンの選手をブロックした方法など、ビデオの詳細についてMMICL に質問することもできます。

MMICL は、ビデオ内の時間的および空間的な関係を正確に把握するだけでなく、リアルタイムのビデオ ストリーム入力もサポートします。

監視カメラの映像では、人が転倒しているのがわかります。MMICLこの異常現象を検知し、助けが必要かどうかを尋ねるプロンプトを出します。

MME リストの知覚と認知の上位 5 つを 1 つのグラフで比較すると、MMICL があらゆる面で優れたパフォーマンスを発揮していることがわかります。

それで、 MMICL はそれをどのように実現し、その背後にある技術的な詳細は何なのでしょうか?

トレーニングは2段階で完了します

MMICL は、複数の画像を含む複雑なマルチモーダル入力を理解する際に視覚言語モデルが遭遇する問題に対処することを目的としています。

MMICL は、Flan-T5 XXL モデルをバックボーンとして使用します。モデル全体の構造とフローは、次の図に示されています。

MMICL は BLIP2 に似た構造を使用しますが、インターリーブされたグラフィック入力を受け入れることができます。

MMICL は画像とテキストを同等に扱います。処理された画像とテキストの特徴を入力形式に従って画像とテキストのインターレース形式に結合し、トレーニングと推論のために言語モデルに入力します。

InstructBLIP と同様に、 MMICLの開発プロセスは、LLM をフリーズし、Q-former をトレーニングし、特定のデータセットで微調整することです。

MMICL のトレーニング プロセスとデータ構造を次の図に示します。

具体的には、 MMICLのトレーニングは次の 2 つの段階に分かれています。

  • 事前トレーニング段階では、LAION-400M(参照LLaVA)データセットが使用された。
  • 独自のMIC(マルチモデルインコンテキスト学習)データセットを使用したマルチモーダルインコンテキストチューニング

MIC データセットは公開データセットから構築されています。上の図は MIC データセットの内容を示しています。MIC データセットには、次の機能もあります。

1 つ目は、画像とテキストの間に確立された明示的な参照です。MIC は、画像とテキストが絡み合っているデータに画像宣言を挿入し、画像プロキシ トークンを使用してさまざまな画像を表し、自然言語を使用して画像とテキスト間の参照関係を確立します。

2 つ目は、空間的、時間的、または論理的に相互に関連する複数の画像データセットであり、これにより、MMICL モデルは画像間の関係をより正確に理解できるようになります。

3 番目の機能はサンプル データセットです。これは、マルチモーダル コンテキスト学習を使用して、テキストと画像が散在する複雑なテキストと画像の入力に対する MMICL の理解を強化する、MMICL に「その場で学習」させるプロセスに似ています。

MMICL は、複数のテスト データセットで、同じく FlanT5XXL を使用する BLIP2 および InstructionBLIP よりも優れたパフォーマンスを発揮します。

特に複数の画像が関係するタスクの場合、MMICL は複雑な画像やテキストの入力に大きな改善を示します。

研究チームは、MMICL が視覚言語モデルによく存在する言語バイアスの問題を解決し、それが優れたパフォーマンスの理由の 1 つであると考えています。

ほとんどの視覚言語モデルは、大量のテキストコンテキストに直面したときに視覚コンテンツを無視します。これは、視覚情報を必要とする質問に答えるときには致命的な欠陥となります。

研究チームのアプローチのおかげで、MMICL は視覚言語モデルにおけるこの言語バイアスをうまく軽減しました。

この大規模なマルチモーダル モデルに興味のある読者は、GitHub ページまたは論文を参照して詳細を確認してください。

GitHub ページ: https://github.com/HaozheZhao/MIC
論文アドレス: https://arxiv.org/abs/2309.07915 オンラインデモ:
http://www.testmmicl.work/

<<: 

>>:  ゼロサンプルに主眼が置かれています! ReSimAD: 自動運転で 3D ドメイン適応を実現するには?

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

IoT機械学習とAIサービスの収益は2026年までに36億ドルに達する

COVID-19 パンデミックにより、増大するデータ量を管理し、そこから洞察を得るための IoT に...

Deeplearning4j: JVM 向けのディープラーニングと ETL

[[410828]]この記事はWeChatの公開アカウント「Java Architecture M...

...

...

IDC: 人工知能への世界的支出は4年で倍増すると予想

IDC グローバル人工知能支出ガイドによると、世界の人工知能 (AI) 関連の支出は、今後 4 年間...

...

...

ビデオ会議圧縮アルゴリズム

ビデオ会議 264 ビデオ圧縮 - SVC H.264 には、階層化されたエンコードを可能にする S...

ちょうど今、ビートルズはAIがプロデュースした「最後の」新曲をリリースした。

音楽に詳しい友人なら、ビートルズを知らない人はいないでしょう。ビートルズは、歴史上最も偉大で最も影響...

ホーキング博士が亡くなりました。彼が残した5つの予言をぜひ読んでみてください

ガーディアン紙、BBC、スカイニュースチャンネルなど複数の外部情報源によると、英国の物理学者スティー...

AIが新たな成長エンジンに。アマゾン ウェブ サービスの技術的手法に耳を傾けてみよう

AI は数年前にテクノロジーの世界で人気を博しましたが、今では何千もの業界で革新と徹底的な応用が行わ...

あるプログラマーは仕事を辞めて人工知能に転職した。4か月後に後悔し、多くの挫折を経験した。

転職すると3ヶ月貧乏になるが、転職すると3年間貧乏になるという諺があるようです。科学的な根拠はありま...

オックスフォード大学とケンブリッジ大学は「顔面を叩き」、ChatGPTの使用を許可し、段階的にチュートリアルも教えた。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

一目でわかるアルゴリズム「配列と連結リスト」

データ構造はソフトウェア開発の最も基本的な部分であり、プログラミングの内部的な強さを反映しています。...