北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

AIは面白い動画の何が面白いのかを理解できるようになりました。

AI の回答: このビデオが面白いのは、小さな赤ちゃんがベッドに座って本を読もうとしているのですが、明らかにまだ読めないということです。彼はページのさまざまな場所を指さし続け、カメラマンは背景で彼に向かって笑っていました。赤ちゃんが自分には大きすぎて言葉も理解できない本を読もうとする様子は、とても面白いです。

北京大学などの研究チームが、画像と動画の表現を統一された視覚特徴空間に整列させ、13 種類の画像と動画のベンチマークで高度なパフォーマンスを実現する大規模視覚言語モデルVideo-LLaVA をオープンソース化しました。

注目すべきは、Video-LLaVA はトレーニング中にビデオと画像のペアデータを使用していなかったが、トレーニング後、LLM は驚くべきことに画像とビデオの両方を理解する能力を示したことです。

下の図に示すように、Video-LLaVA は、自由の女神像の画像がクローズアップされ詳細に撮影されていることを認識しています。また、ビデオには自由の女神像の複数の角度が映っており、同じ場所から撮影されたものであることがわかります。

投影前に画像とビデオ表現を合わせる

この研究の具体的な貢献は次のとおりです。

  • Video-LLaVA は、視覚言語理解における画像とビデオの両方の処理という課題に対処します。視覚的表現を言語特徴空間に統合し、大規模な言語モデルが画像とビデオの両方で視覚的推論を実行できるようにします。
  • Video-LLaVA は、最初に画像とビデオの表現を統合された視覚的特徴空間に揃えることで、視覚的表現を言語的特徴空間に統合します。これは、さまざまなモダリティをテキスト特徴空間にマッピングし、統一された視覚表現を提供する LanguageBind エンコーダーを使用することで実現されます。次に、統合された視覚表現は、共有投影レイヤーと単語埋め込みレイヤーを通じてエンコードされ、統合された視覚表現が大規模な言語モデルにマッピングされます。
  • Video-LLaVA はビデオで優れたパフォーマンスを発揮し、MSVD、MSRVTT、TGIF、ActivityNet ビデオ質問応答データセットでそれぞれ Video-ChatGPT を 5.8%、9.9%、18.6%、10.1% 上回りました。

研究チームはモデルの能力について広範囲にわたる実験を行った。

ビデオ理解実験。

表 3 に示すように、Video-LLaVA は 4 つのビデオ質問応答データセットすべてで Video-ChatGPT を上回っており、その増加はかなりのものです。

絵の理解力の実験。

この研究では、画像言語理解タスクを、InstructBLIP、Otter、mPLUG-owl などの大規模画像言語モデルと比較しました。結果は表 2 に示されています。

視覚入力を事前に整列させることの効果を評価するために、研究チームは多数の比較実験を実施しました。

彼らは、画像エンコーダーを同じサイズの MAE エンコーダーに置き換えました。MAE エンコーダーは個別の視覚表現を生成するのに対し、LanguageBind エンコーダーは統一された視覚表現を生成します (視覚表現が事前に整列されているため)。

次に、9 つの画像理解ベンチマークと 4 つのビデオ理解ベンチマークを含む 13 のベンチマークで MAE エンコーダーと LanguageBind エンコーダーのパフォーマンスを比較しました。

LLM は、画像エンコーダーを MAE エンコーダーに置き換えることで、視覚表現を最初に学習するときに、ビデオ機能と画像機能を統合するのではなく、個別に処理します。

図 6 の実験結果は、共同視覚表現により、個別の視覚表現と比較して、4 つのビデオ質問応答データセットのパフォーマンスが大幅に向上することを示しています。

この発見は、事前に調整された視覚表現が LLM がビデオ コンテンツをさらに学習して理解するのに役立つことを示唆しています。より優れた機能が提供され、モデルがビデオ質問応答タスクをより効率的に処理し、より優れたパフォーマンスを発揮できるようになります。

同時に、写真でもビデオでも、共同トレーニングでお互いにメリットが得られることもこの論文では検証しています。

ビデオデータと共同でトレーニングすることで、画像理解タスクにおける幻覚の問題を軽減できます。 LLaVA-Bench ベンチマークでも同様の傾向が見られます。

映像理解の面でも、共同訓練は大幅に改善されました。

<<:  AI「コスプレ」の鍵はキャラクター設定にあり!復旦大学、人民大学などがビッグファイブ性格特性+MBTIテストを発表:特性回復率は82.8%に達し、OOCを否定

>>: 

ブログ    
ブログ    

推薦する

チップ設計に特化したNVIDIAが、カスタマイズされた大規模言語モデルChipNeMoをリリース!

先日開幕した ICCAD 2023 カンファレンスで、NVIDIA チームは AI モデルを使用して...

ユニサウンド、50倍の性能を誇る世界初のIoT向けAIチップを発売

業界をリードするモノのインターネット(IoT)人工知能サービス企業であるUnisoundは、約3年間...

WOT2019 検索推奨アルゴリズムフォーラム: さまざまな分野における AI ベースの検索推奨の実用化

6月21日、WOT2019グローバルテクノロジーサミットとグローバル人工知能テクノロジーサミットが北...

...

...

...

孫玄、Zhuanzhuan 社アーキテクチャアルゴリズム部門: AI によるマイクロサービスアーキテクチャ

[51CTO.com からのオリジナル記事] 2014 年頃から、マイクロサービス アーキテクチャの...

李開復、胡宇、張亜琴の GMIC 2018 対談: AI 戦略と AI 人材育成における中国と米国の違いは何ですか?

[[227402]]人工知能が急成長を遂げている現在、AI人材の不足は中国だけでなく、世界全体が直...

研究機関が新しいレポートでAIの売り手側と買い手側の成功への道筋を定義

調査会社ストラテジー・アナリティクスは新たな報告書の中で、人工知能製品のベンダーとそのユーザーの両方...

欧州が癌治療における人工知能の新基準を設定

EUCAIM (EUropean Federation for CAncer IMages) プロジ...

脳コンピューターインターフェース技術は本当に人気がある

[[274622]]参加者は脳波計を装着し、コンピューターの画面を見つめながら、急速に点滅するターゲ...

...

...

疫病と闘う最前線の医療従事者を守るためにAIをどう活用するか?

私たちは前例のない危機を生きています。 COVID-19パンデミックの間、医療従事者は最前線のヒーロ...

人工知能は世界を支配するのでしょうか?

技術が急速に進歩する時代において、人工知能 (AI) が最終的に世界を支配するかどうかという差し迫っ...