LLaVA-1.6は非常に強力で、Gemini Proを上回り、推論機能とOCR機能が向上しています。

LLaVA-1.6は非常に強力で、Gemini Proを上回り、推論機能とOCR機能が向上しています。

昨年 4 月、ウィスコンシン大学マディソン校、マイクロソフト リサーチ、コロンビア大学の研究者が共同で LLaVA (Large Language and Vision Assistant) をリリースしました。 LLaVA は小規模なマルチモーダル指示データセットでトレーニングされましたが、一部のサンプルでは GPT-4 と非常によく似た推論結果を示しました。 10 月に LLaVA-1.5 がリリースされ、オリジナルの LLaVA に簡単な変更を加えることで 11 のベンチマークの SOTA が更新されました。

現在、研究チームは、主に推論、OCR、世界知識のモデルのパフォーマンスを向上させる LLaVA-1.6 のリリースを発表しました。 LLaVA-1.6 は、いくつかのベンチマークで Gemini Pro を上回ります。


  • デモアドレス: https://llava.hliu.cc/
  • プロジェクトアドレス: https://github.com/haotian-liu/LLaVA

LLaVA-1.5 と比較して、LLaVA-1.6 には次の改善点があります。

  • 入力画像の解像度を 4 倍に増やし、最大 672x672、336x1344、1344x336 の解像度の 3 つのアスペクト比をサポートします。これにより、LLaVA-1.6 はより多くの視覚的詳細をキャプチャできるようになります。
  • LLaVA-1.6 は、改良された視覚的指示を通じてデータの混合を調整することにより、より優れた視覚的推論と OCR 機能を実現します。
  • より優れた視覚的なダイアログ、より多くのシナリオ、さまざまなアプリケーションをカバーします。 LLaVA-1.6はより多くの世界知識を獲得し、より優れた論理的推論能力を備えています。
  • 効率的な展開と推論には SGLang を使用します。

画像出典: https://twitter.com/imhaotian/status/1752621754273472927

LLaVA-1.6 は、LLaVA-1.5 のミニマリスト設計とデータ効率を維持しています。LLaVA-1.5 の事前トレーニング済みコネクタを再利用し、100 万個未満の視覚指示チューニング サンプルを使用します。最大の 34B モデルは、32 台の A100 を使用して約 1 日でトレーニングされました。 LLaVA-1.6 は 130 万のデータ サンプルを使用し、計算/トレーニング データ コストは他の方法に比べて約 100 ~ 1000 倍低くなります。

CogVLM や Yi-VL などのオープンソース LMM と比較すると、LLaVA-1.6 は SOTA パフォーマンスを実現します。市販製品と比較すると、LLaVA-1.6 は選択されたベンチマークで Gemini Pro に匹敵し、Qwen-VL-Plus よりも優れています。

LLaVA-1.6 は強力なゼロショット中国語機能を実証し、マルチモーダル ベンチマーク MMBench-CN で SOTA パフォーマンスを達成したことは特筆に値します。

方法の改善

ダイナミック高解像度

研究チームは、データ効率を維持することを目的として、LLaVA-1.6 モデルを高解像度で設計しました。高解像度の画像と詳細を保持する表現が提供されると、画像内の複雑な詳細を認識するモデルの能力が大幅に向上します。低解像度の画像に直面したときに、モデルの幻覚、つまり想像上の視覚コンテンツを推測することを軽減します。

データブレンディング

高品質なユーザー説明データ。高品質の視覚的なコマンド追従データの定義は、2 つの主な基準に依存します。1 つ目は、タスク コマンドの多様性です。これにより、特にモデル展開フェーズで、現実のシナリオで遭遇する可能性のある幅広いユーザーの意図が完全に表現されることが保証されます。第二に、好意的なユーザーフィードバックを得るために、応答に優先順位を付けることが重要です。

したがって、この研究では 2 つのデータ ソースを考慮しました。

既存の GPT-V データ (LAION-GPT-V および ShareGPT-4V)。

より多くのシナリオでより良い視覚的な会話をさらに促進するために、研究チームはさまざまなアプリケーションをカバーする 15K の小さな視覚コマンド調整データセットを収集し、プライバシーの問題がある可能性のある、または有害である可能性のあるサンプルを慎重にフィルタリングし、GPT-4V を使用して応答を生成しました。

マルチモーダルドキュメント/チャートデータ。 (1)研究チームは、TextCapがTextVQAと同じトレーニング画像セットを使用していることに気づいたため、トレーニングデータからTextCapを削除した。これにより、研究チームは TextVQA を評価する際に、モデルのゼロショット OCR 機能をより深く理解できるようになりました。モデルの OCR 機能を維持し、さらに向上させるために、本研究では TextCap を DocVQA と SynDog-EN に置き換えました。 (2)本研究では、Qwen-VL-7B-Chatの助けを借りて、グラフやチャートをよりよく理解するためにChartQA、DVQA、AI2Dをさらに追加しました。

研究チームはまた、Vicuna-1.5(7Bおよび13B)に加えて、Mistral-7BやNous-Hermes-2-Yi-34Bなど、より多くのLLMスキームが検討されており、LLaVAがより幅広いユーザーとより多くのシナリオをサポートできるようになると述べました。

<<: 

>>:  深度に関するあらゆる情報: 大規模なラベルなしデータから深度推定を解き放つ

ブログ    
ブログ    

推薦する

AI顧客サービス指標について話す

インテリジェントな顧客サービスの評価基準は何かというビジネス上の問い合わせを頻繁に受けます。これは答...

私の国のドローンは新たな段階に入り、成熟した開発にはまだ3つのレベルを通過する必要があります

[[428031]]先日の建国記念日、ドローンは間違いなく「最もクールな存在」でした。交通の補助、景...

2024年にIT業界は成長を遂げる:AIとサイバーセキュリティが最大のホットスポット

IDCは、2024年のIT市場はチャンスに満ちていると指摘した。インフレや経済などの要因が懸念材料と...

Java プログラミング スキル - データ構造とアルゴリズム「バランス バイナリ ツリー」

[[390860]]バイナリソートツリーで起こりうる問題シーケンス {1,2,3,4,5,6} が...

...

一枚のポートレートからビデオを生成しましょう!中国チームが3D顔動画生成モデルを提案、SOTAを達成

[[417461]]人間の顔を使って面白いビデオを生成するにはどうすればいいでしょうか? [[417...

2022年スタンフォードAIインデックス発表:中国がAIジャーナルの出版と引用で1位、TFオープンソースライブラリが最も人気

人工知能の分野では、スタンフォード大学が開始したAIインデックスは、AIの動向と進歩を追跡する非営利...

Karpathy の新しいビデオが再び人気に: GPT Tokenizer をゼロから構築

技術の第一人者カパシー氏がOpenAIを去った後、彼のビジネスは非常に活発になっています。新しいプロ...

ファーウェイの孫茂陸氏:今後5年間で10億ドルを投資し、スマートエンタープライズサービスを構築する

上海で開催されたHUAWEI CONNECT 2019で、ファーウェイはエンタープライズサービス開発...

人工知能時代のアルゴリズムガバナンスの核心と道筋

2021年12月末、4つの部門が共同で「インターネット情報サービスのアルゴリズム推奨管理に関する規則...

科学者たちは人間のように「考える」ことができる人工知能を開発している

[[429745]]人間のような AI を作るということは、単に人間の行動を模倣するということだけで...

ディープラーニングの専門家になるにはどうすればいいですか?このアリ天池大会の優勝者はあなたのためにプロとしての成長の道を計画しました

[[209722]]ディープラーニングは本質的には深層人工ニューラルネットワークです。これは孤立した...

AI応用分野トップ10: AIはかつてないほど優れている

1956 年のダートマス会議で AI が提案されて以来、AI 研究はいくつかの浮き沈みを経験してきま...

...

自動運転で冬季オリンピックはよりスマートに

[[438829]]発進時に左ウィンカーを出し、歩行者がいる場合はスピードを落として迂回し、障害物が...