北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

北京大学の動画モデルが新たなSOTA、AIは数秒で面白いTik Tok動画の面白いポイントを理解できる

AIは面白い動画の何が面白いのかを理解できるようになりました。

AI の回答: このビデオが面白いのは、小さな赤ちゃんがベッドに座って本を読もうとしているのですが、明らかにまだ読めないということです。彼はページのさまざまな場所を指さし続け、カメラマンは背景で彼に向かって笑っていました。赤ちゃんが自分には大きすぎて言葉も理解できない本を読もうとする様子は、とても面白いです。

北京大学などの研究チームが、画像と動画の表現を統一された視覚特徴空間に整列させ、13 種類の画像と動画のベンチマークで高度なパフォーマンスを実現する大規模視覚言語モデルVideo-LLaVA をオープンソース化しました。

注目すべきは、Video-LLaVA はトレーニング中にビデオと画像のペアデータを使用していなかったが、トレーニング後、LLM は驚くべきことに画像とビデオの両方を理解する能力を示したことです。

下の図に示すように、Video-LLaVA は、自由の女神像の画像がクローズアップされ詳細に撮影されていることを認識しています。また、ビデオには自由の女神像の複数の角度が映っており、同じ場所から撮影されたものであることがわかります。

投影前に画像とビデオ表現を合わせる

この研究の具体的な貢献は次のとおりです。

  • Video-LLaVA は、視覚言語理解における画像とビデオの両方の処理という課題に対処します。視覚的表現を言語特徴空間に統合し、大規模な言語モデルが画像とビデオの両方で視覚的推論を実行できるようにします。
  • Video-LLaVA は、最初に画像とビデオの表現を統合された視覚的特徴空間に揃えることで、視覚的表現を言語的特徴空間に統合します。これは、さまざまなモダリティをテキスト特徴空間にマッピングし、統一された視覚表現を提供する LanguageBind エンコーダーを使用することで実現されます。次に、統合された視覚表現は、共有投影レイヤーと単語埋め込みレイヤーを通じてエンコードされ、統合された視覚表現が大規模な言語モデルにマッピングされます。
  • Video-LLaVA はビデオで優れたパフォーマンスを発揮し、MSVD、MSRVTT、TGIF、ActivityNet ビデオ質問応答データセットでそれぞれ Video-ChatGPT を 5.8%、9.9%、18.6%、10.1% 上回りました。

研究チームはモデルの能力について広範囲にわたる実験を行った。

ビデオ理解実験。

表 3 に示すように、Video-LLaVA は 4 つのビデオ質問応答データセットすべてで Video-ChatGPT を上回っており、その増加はかなりのものです。

絵の理解力の実験。

この研究では、画像言語理解タスクを、InstructBLIP、Otter、mPLUG-owl などの大規模画像言語モデルと比較しました。結果は表 2 に示されています。

視覚入力を事前に整列させることの効果を評価するために、研究チームは多数の比較実験を実施しました。

彼らは、画像エンコーダーを同じサイズの MAE エンコーダーに置き換えました。MAE エンコーダーは個別の視覚表現を生成するのに対し、LanguageBind エンコーダーは統一された視覚表現を生成します (視覚表現が事前に整列されているため)。

次に、9 つの画像理解ベンチマークと 4 つのビデオ理解ベンチマークを含む 13 のベンチマークで MAE エンコーダーと LanguageBind エンコーダーのパフォーマンスを比較しました。

LLM は、画像エンコーダーを MAE エンコーダーに置き換えることで、視覚表現を最初に学習するときに、ビデオ機能と画像機能を統合するのではなく、個別に処理します。

図 6 の実験結果は、共同視覚表現により、個別の視覚表現と比較して、4 つのビデオ質問応答データセットのパフォーマンスが大幅に向上することを示しています。

この発見は、事前に調整された視覚表現が LLM がビデオ コンテンツをさらに学習して理解するのに役立つことを示唆しています。より優れた機能が提供され、モデルがビデオ質問応答タスクをより効率的に処理し、より優れたパフォーマンスを発揮できるようになります。

同時に、写真でもビデオでも、共同トレーニングでお互いにメリットが得られることもこの論文では検証しています。

ビデオデータと共同でトレーニングすることで、画像理解タスクにおける幻覚の問題を軽減できます。 LLaVA-Bench ベンチマークでも同様の傾向が見られます。

映像理解の面でも、共同訓練は大幅に改善されました。

<<:  AI「コスプレ」の鍵はキャラクター設定にあり!復旦大学、人民大学などがビッグファイブ性格特性+MBTIテストを発表:特性回復率は82.8%に達し、OOCを否定

>>: 

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

世界を変えるために活動する5つのAIスタートアップ

ディープラーニングとニューラル ネットワークの進歩により、自然言語処理とコンピューター ビジョンに大...

...

...

AI を理解する: 人工知能システムで説明可能性を追求する理由

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...

「ディープラーニング」市場の動向を多面的に分析

[[192373]]業界分析2016 年、世界のディープラーニング市場規模は 2 億 2,700 万...

ビッグビデオモデルは世界モデルですか? DeepMind/UC Berkeley Chinese: 次のフレームを予測することで世界を変えることができる

今年初めにOpenAIが発表した壮大な傑作「Sora」が、ビデオ関連分野のコンテンツエコロジーを変え...

猿人歩行からAIまで:三次元戦略で一人ひとりに寄り添う「真のセキュリティ」

[[420527]]有名なドイツの社会学者ウルリッヒ・ベックはかつてこう言いました。「近代化の過程...

...

これがあれば、母は私が授業をさぼったり、空想にふけったり、携帯電話で遊んだりすることを心配する必要がなくなります...

最近、中国薬科大学は試験的に教室に顔認識システムを導入しました。学生の出席を自動的に識別するだけでな...

C# アルゴリズムの選択ソートの簡単な分析

C# 選択ソート アルゴリズムとは何ですか?これはどのように達成されるのでしょうか?この紹介が C#...

人工知能開発の重要な要素と気候変動への影響

人工知能は世界的な流行語となり、ほぼすべての企業のデジタル変革計画に不可欠な要素となっています。 A...

機械学習研究動向の分析: TensorFlow が Caffe を上回り、最も一般的に使用される研究フレームワークに

冗談ですが、論文提出のトピックは、Adam で最適化された、完全な畳み込みエンコーダー/デコーダー ...

人工知能: スマートシティを支える頭脳

[[347829]]私たちが知っているかどうかに関わらず、人工知能 (AI) はすでに私たちの生活の...