特定のイベントが発生した正確な時刻を特定します。 Byte&復旦大学のマルチモーダル大型モデル解釈ビデオはとても良い

特定のイベントが発生した正確な時刻を特定します。 Byte&復旦大学のマルチモーダル大型モデル解釈ビデオはとても良い

Byte & 復旦大学のマルチモーダル理解モデルはこちらです:

ビデオ内の特定のイベントが発生した時間を正確に特定できます。

たとえば、次のビデオでは:

犬が振り返ってカメラを見たときのタイムスタンプは何ですか?

スケートボードを蹴るときに爪を使うのはいつですか?

ここで、動画の赤ちゃんがメガネを押し上げたり、体を伸ばしたりしたのはいつでしょうか?この本を読み始めたのはいつですか?

このような質問に対して、このレゴと呼ばれるモデルは、すべてを理解し、ためらうことなく正しい答えを出すことができます。

これらの研究結果により、今後は動画の視聴や情報の検索がさらに便利になりそうですね。

地域情報を正確に把握できるマルチモーダルLLMが登場

LEGO は、言語強化型マルチモーダルグラウンディング モデルの略です。

これは主に、複数のモダリティにわたってきめ細かな理解を実行するマルチモーダル LLM の能力に焦点を当てています。これまでの業界の成果は、主にグローバル情報に重点を置いていました。

この目標を達成するために、著者はデータセットから始めて、モデルトレーニング用のマルチモーダル、マルチ粒度の質問応答データセットを作成しました(これはまもなくオープンソースになります)

このデータセットの構築には、2 つの主要なプロセスが含まれます。

1 つ目はデータセット変換です。

この段階では、著者らは、モダリティの調整と細分化された調整のための基本的なマルチモーダル データセットを構築することを目指しています。

データセットの品質は比較的低いため、主に公開データセットを変換して取得されます。

下の図の上部に示すように、GPT-3.5にタスクの説明を与えてタスク固有の質問ライブラリを生成し、最終的に1ラウンドの対話形式で質問と回答のペアを生成します。

結果として得られるデータセットは、品質を確保するためにフィルタリングされます。

画像モダリティについては、モダリティの調整に LLaVA-pretrain595K データセットを使用し、きめ細かい調整には RefCOCO などの特定のデータセットを使用しました。

ビデオ モダリティは Valley-Pretrain-703K を使用して調整され、きめ細かい調整には Charades-STA データセットが使用されます。

2 つ目は、命令チューニング データセットの生成です。

このデータセットの目的は、モデルが人間の指示をよりよく理解し、それに従うようにすることです。

上の図の下部に示すように、著者らはコンテキストの例を作成するために、公開されているデータセットのサブセット(Flickr30K Entities、VCR、DiDeMo など)も選択して手動で注釈を付けました。これは、命令チューニング データセットを生成するときに、GPT-3.5 が同様のパターンに従うようにガイドするために使用されます。

その後、タスク固有のシステムプロンプトとランダムに選択された例が GPT-3.5 に入力され、単一ターンまたは複数ターンのダイアログが生成されます。最後に、データセットの品質を確保するためにデータのフィルタリングが実行されます。

以下は、3 段階のトレーニング後に生成された最終データ サンプルの例です。

LEGO モデルのアーキテクチャは次のとおりです。

各モダリティの入力は個別のエンコーダーを介して処理され、特徴が抽出され、その後、アダプターを使用して LLM の埋め込み空間にマッピングされます。

この図は、ビデオ モードと画像モードの 2 つの例を示しています。青いボックスは入力としてビデオを表し、黄色のボックスは入力として画像を表します。

モジュール設計とアダプターに基づくアーキテクチャにより、LEGO は新しいエンコーダーをシームレスに統合し、ポイント クラウドや音声などの追加モダリティを処理できるため、優れた拡張機能となります。

最後に、LEGO は Vicuna1.5-7B を基本言語モデルとして使用し、マルチモーダル事前トレーニング、きめ細かいアライメント調整、クロスモーダル指示調整の 3 段階でトレーニングを完了します。

実験評価は次のとおりです。

画像タスクにおいて、RECタスクにおけるLEGOモデルと他のモデルのパフォーマンスは次の表の通りです。すべてのデータセットにおいて比較的競争力のあるパフォーマンスを示していることがわかります。

ビデオタスクでは、LEGO はビデオ全体の理解に重点を置いており、VideoLLaMA、VideoChat、Valley の 3 つのモデルと比較してそのパフォーマンスは非常に優れています。

さらなる能力の実証

前述のように、LEGO の機能はビデオの配置に限定されず、画像やオーディオなどのマルチモーダル タスクにも優れています。

それは次のことを指します。

  • 画像コンテンツの解釈

この風景写真では、遊ぶことのリスクについて正確な警告を与えています。

このミームでは、これがフライドチキンで作られたシンプルな地図であることも正確に発見されました。

  • ビデオコンテンツの概要

非常に詳細な都市の座標と観光スポットを識別できることがわかります。

  • オーディオ分析

もちろん、ここでテストされているのは、純粋な雨の音の比較的単純な短いオーディオだけです。

  • サウンドポジショニング

犬が吠える音声クリップと走っている犬の画像を与えると、犬の口の周りの音源を正確に特定できます。

著者について

この記事の著者は合計 12 人です。

復旦大学の第一著者である Zhaowei Li 氏に加え、同じくここ出身の Dong Zhang 氏という著者もいます。

残りはByteDanceの従業員であり、責任著者はTao Wangです。

論文アドレス: https://arxiv.org/abs/2401.06071

<<: 

>>:  ChatGPTはAmazonに「オンラインストアを開設」し、一夜にしてインターネットの有名人になった

ブログ    

推薦する

...

AIバブルが崩壊したら

今日の午後、友人とチャットをしていて、人工知能バブルの問題について話しました。この問題に関する私の意...

AIのダークサイドを暴く:人工知能は人間に取って代わるが、機械をどのように学習するかは分からない

[[189044]]昨年、自動運転車がニュージャージー州モンマス郡に侵入した。チップメーカーのNvi...

2021 年を迎えるにあたり、人気の GNN はどのアプリケーション分野で存在感を発揮するのでしょうか?

近年、グラフ構造の強力な表現力により、機械学習の手法を用いたグラフ解析の研究が注目を集めています。グ...

OpenAIがヴィンセントのビデオモデル「Sora」をリリース。一般人がその恩恵を最大化するにはどうすればいいか?

2022年11月30日のChatGPTのリリース以来、OpenAIが新しい機能をリリースするたびに...

どのAIダンスが一番いいですか? Google の 3D ダンサーが音楽に合わせて踊り、DanceNet に挑戦

今回、トランスフォーマーはダンス生成タスクに参加しました。芸術分野では、AIが生成した音楽やAIが描...

技術者でなくても、クラウド コンピューティング、ビッグ データ、人工知能を理解することができます。

今日は、クラウド コンピューティング、ビッグ データ、人工知能の 3 つのトピックについてお話しした...

人工知能はいつか本当に人間の教師に取って代わることができるのでしょうか?

中国は教育における人工知能の応用において徐々に優位に立っています。顔認識からスタートアップ、医療教育...

中国で初めて申請を通過し、オンラインで入手可能になったAI大規模モデル製品8つ

8月31日、中国科学院傘下の百度、バイトダンス、センスタイム、紫東台中、百川知能、知普華章など8つの...

人工知能業界データ分析:中国のネットユーザーの76.8%が2020年の人工知能トラフィックアプリケーションシナリオに満足している

政策の推進と資本の注目により、人工知能産業は今後も急速な発展傾向を維持するでしょう。投資家は人工知能...

人工知能とビッグデータの時代において、一般の人々はどうやってお金を稼ぐのでしょうか?

将来、旅行には自動運転車、食事にはプログラムされたスナックストリート、ヘアカットにはロボット理髪師、...

AI人工知能の今後の発展方向と展望

人工知能 (AI) は、人間の知能をシミュレートし、学習、推論、認知、適応を通じて自律的にタスクを実...

初心者向けのオープンソース機械学習フレームワーク、Scikit-learnについて

Python 言語に精通している研究者は、オープンソースの Python ベースの科学計算ツールキッ...

...

日本の警察は、AIを使って不審者の動きや表情を分析し、「一匹狼」犯罪に対処する予定

7月10日、日経中国版ウェブサイトの報道によると、日本の警察庁は早ければ年内にもAIによる捜査活動を...