私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

私の目が支配者です! 80億のパラメータを備えたOtterHDは、清明節のラクダを数えるのに役立ちます。南洋理工大学の中国チームによって作成されました

「清明節の河沿い」には何頭のラクダがいるか知りたいですか? UHD 入力をサポートするこのマルチモーダル モデルをご覧ください。

最近、南洋理工大学の中国チームが、Fuyu-8Bをベースにした80億のパラメータを持つ大規模なマルチモーダルモデル「OtterHD」を作成した。

論文アドレス: https://arxiv.org/abs/2311.04219

固定サイズのビジュアル エンコーダーに限定される従来のモデルとは異なり、OtterHD-8B は柔軟な入力サイズを処理できるため、さまざまな推論ニーズに合わせて汎用性を確保できます。

同時に、研究チームは、大きな画像内の物体の細部や空間関係を区別する LLM の能力を慎重に評価できる新しいベンチマーク テスト「MagnifierBench」も提案しました。

結果は、OtterHD-8B が、特に高解像度の入力を直接処理する場合に、同様のモデルよりも大幅に優れたパフォーマンスを発揮することを示しています。

効果のデモンストレーション

下の図に示すように、清明上河図(部分)にはラクダが何頭いるかを尋ねたところ、画像入力は2446x1766ピクセルに達し、モデルは正常に回答することができました。

かつて GPT4-V が悩まされたリンゴを数える問題に直面したモデルは、11 個のリンゴをうまく数えることに成功しました。


論文で紹介されている高精細入力の例に加えて、いくつかのテストも実施しました。下の図では、モデルにユーザーがケンブリッジ大学の博士号取得者であると想定させています。この図が何を意味するのか説明してください。

モデルの回答は、画像内のブラックホールとホワイトホールを正確に特定し、それがトンネルのような構造であることを認識し、詳細な説明をしました。

下の図では、モデルは図内のエネルギーの割合を説明するように求められています。モデルは、図内のいくつかの種類のエネルギーと、それらの割合が時間の経過とともにどのように変化するかを正確に識別します。

次の図は電球の交換に関するフローチャートです。モデルはフローチャートの意味を正確に理解し、詳細な手順を段階的に説明します。

OtterHD-8Bを微調整するための80億のパラメータ命令

特に、Fuyu-8B ベースの OtterHD-8B は、最大 1024×1024 の入力でトレーニングされた最初のオープンソースの命令ベースの微調整大規模言語モデルです。

さらに、推論中にさらに大きな解像度(1440×1440 など)に拡張することもできます。

トレーニングの詳細

予備実験では、チームは、Fuyu がいくつかのベンチマークで特定の命令に対する応答のパフォーマンスが低く、その結果、MME および MMBench でのモデルのパフォーマンスが非常に低くなることを発見しました。

これらの問題に対処するため、研究チームは 37 万件の混合データに基づいて Fuyu モデルを微調整し、同様の指示テンプレートを使用して、LLaVA-1.5 を参照してモデルの回答の形式を標準化しました。

トレーニング フェーズでは、すべてのデータセットがコマンド/レスポンスのペアに編成され、統合されたデータローダーに集約され、代表的な完全性を確保するために均一にサンプリングされます。

モデリング コードを強化するために、チームは FlashAttention-2 および FlashAttention ライブラリの演算子融合技術を使用しました。

図 2 に示すように、Fuyu の簡素化されたアーキテクチャのおかげで、これらの変更により GPU の使用率とスループットが大幅に向上します。

具体的には、チームが提案した方法では、8×A100 GPU で 3 時間/エポックの速度で完全なパラメータ トレーニングを完了できますが、LoRA では微調整後、エポックあたり 1 時間しかかかりません。

AdamW オプティマイザーを使用してモデルをトレーニングする場合、バッチ サイズは 64、学習率は 1×10^-5、重み減衰は 0.1 に設定されます。

拡大鏡ベンチ

人間の視覚システムは、視野内の物体の詳細を自然に認識できますが、LMM をテストするために使用される現在のベンチマークは、この能力の評価に特に焦点を当てていません。

Fuyu および OtterHD モデルの登場により、入力画像の解像度を初めてはるかに広い範囲に拡張できるようになりました。

この目的のために、チームは Panoptic Sc​​ene Graph Generation (PVSG) データセットに基づいて、166 枚の画像と合計 283 セットの質問をカバーする新しいテスト ベンチマーク MagnifierBench を作成しました。

PVSG データセットは、特に一人称の家事ビデオなど、雑然とした複雑なシーンが多数含まれるビデオ データで構成されています。

注釈付けの段階で、チームはデータセット内のすべての質問と回答のペアを注意深く調べ、大きなオブジェクトが関係するものや常識的な知識で簡単に答えられるものを排除しました。たとえば、リモコンのほとんどは黒色なので、簡単に推測できますが、赤や黄色などの色は含まれていません。

図 3 に示すように、MagnifierBench によって設計された質問の種類には、認識、数字、色に関する質問が含まれます。データセットの重要な基準は、質問が十分に複雑で、注釈者が質問に正確に回答するにはフルスクリーン モードで作業し、画像を拡大する必要があることです。

短い回答と比較して、LMM は会話の設定で拡張された回答を生成するのに優れています。

- 複数選択問題

ここで、モデルは質問と複数の回答オプションに直面します。モデルが単一の文字(A、B、Cなど)で回答するように誘導するために、チームは質問の前にヒントとして「回答」の指示の前に、与えられた選択肢の文字を直接追加しました。この場合、正しい選択肢に完全に一致する回答のみが正確な回答とみなされます。

- 未解決の質問

ランダムに推測すると正解になる確率が 25% になるため、複数のオプションがあるとタスクが簡単になります。さらに、ユーザーは通常、モデルに事前定義されたオプションを提供しないため、これはチャット アシスタントが直面する実際のシナリオを反映していません。この潜在的なバイアスを排除するために、チームは、プロンプトオプションを使用せずに、モデルに対して率直で自由形式の質問も行いました。

実験分析

結果によると、多くのモデルが MME や POPE などの確立されたベンチマークで高いスコアを達成している一方で、MagnifierBench でのパフォーマンスは満足のいくものではないことが多いことがわかりました。一方、OtterHD-8B は MagnifierBench で非常に優れたパフォーマンスを発揮しました。

解像度の向上による効果と、OtterHD がさまざまな、潜在的により大きな解像度に一般化する能力をさらに調査するために、チームは固定解像度または動的解像度を使用して Otter8B をトレーニングしました。

x 軸は、解像度が高くなるにつれて、より多くの画像トークンが言語デコーダーに送信され、より多くの画像の詳細が提供されることを示しています。

結果は、解像度が高くなるほど、MagnifierBench のパフォーマンスが向上することを示しています。

テキスト トークンの平均数は一定であるため、解像度が高くなるにつれて、画像とテキスト トークンの数の比率が増加します。

この変更は、特に複雑な視覚的関連付けを必要とするタスクの場合、LMM 解像度の重要性を浮き彫りにします。

さらに、固定トレーニング方法と動的トレーニング方法のパフォーマンスの違いにより、動的サイズ変更の利点が強調され、特に特定の解像度での過剰適合を防止できます。

さらに、動的ポリシーにより、モデルはトレーニング中には見ら​​れなかったより大きな解像度 (1440) に一般化できます。

いくつかの比較

結論は

研究チームが提案したOtterHD-8Bモデルは、Fuyu-8Bの革新的なアーキテクチャに基づいて、さまざまな解像度の画像を効果的に処理でき、ほとんどのLMMにおける固定解像度入力の制限を打ち破ります。

同時に、OtterHD-8B は高解像度画像の処理においても非常に優れたパフォーマンスを発揮します。

これは、複雑なシーンの詳細を識別する LMM の能力を評価することを目的とした新しい MagnifierBench ベンチマークで特に顕著であり、さまざまな解像度に対するより柔軟なサポートの重要性を強調しています。

<<:  ティアン・ユアンドンがOpenAIの謎のQ*プロジェクトに冷水を浴びせる: 合成データはAGIの救世主ではなく、その能力は単純な数学の問題に限られている

>>: 

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

ロボット工学における最先端技術トップ10

近年、ロボット産業は急速に発展し、特に産業分野ではロボットがさまざまな分野で広く使用されるようになり...

...

野生生物の保護: ドローン、ロボット、AI

最近、雲南省の象の群れに関するニュースを皆さんも聞いたことがあると思います。 2020年、雲南省西双...

...

4つの高性能なデータ型、Pythonコレクションはコードの最適化とタスクの簡素化に役立ちます

この記事では、機械学習エンジニアの George Seif が、Python のコレクション モジュ...

初のヒューマンモーションキャプチャーモデルをリリース! SMPLer-X: 7つのチャートを一掃

表現力豊かな人間の姿勢と形状の推定 (EHPS) の分野では大きな進歩が遂げられていますが、最も先進...

人工知能はデマですか?人工知能が日常生活にもたらす変化を感じられますか?

しかし、メディアで大いに宣伝された後、人々は AlphaGo が Deep Blue と同じレベルに...

...

...

素人でもわかるポピュラーサイエンス:これは自然言語処理と呼ばれるものです

[[208394]] 1. 自然言語処理とは何ですか?簡単に言えば、自然言語処理(NLP)とは、コン...

SCO Unix ディスク ブロック割り当てアルゴリズム

私は Unix オペレーティング システムに関する知識を頻繁に学んでおり、Unix オペレーティング...

海外メディア:科学者らが深海を探索できる魚のようなソフトロボットを設計

3月4日のニュース、外国メディアの報道によると、ネイチャー誌に最近発表された研究によると、中国のエン...

新たなマイルストーン! IBM、量子コンピュータの最高記録64台を発表、ハネウェルを追い抜く

ちょうど今、IBM は量子コンピューティングの新たなマイルストーンに到達し、現時点での最高量子ボリュ...

インベントリ | 2018 年のベスト 30 の機械学習プロジェクト

編集者注: この記事は Mybridge からのもので、過去 1 年間 (2017 年) で最も素晴...

人工知能とビッグデータの完璧な組み合わせ

人工知能(AI)は数十年前から存在しています。しかし、最近では「ビッグデータ」の登場により注目が高ま...