最近、大規模言語モデル (LLM) において大きな進歩が見られました。特に、Generative Pre-Trained Transformer (GPT) のリリースは、産業界と学術界でいくつかのブレークスルーをもたらしました。 GPT-4 のリリース以来、大規模マルチモーダルモデル (LMM) は研究コミュニティでますます注目を集めており、マルチモーダル GPT-4 の構築に多くの研究が行われています。 最近、GPT-4V (ision) は、その優れたマルチモーダル知覚および推論機能により、特別な注目を集めています。しかし、GPT-4V は前例のない視覚言語理解機能を備えているものの、きめ細かい視覚グラウンディング (入力は画像とそれに対応するオブジェクトの説明、出力はオブジェクトを説明するボックス) 機能は比較的弱いか、まだ十分に活用されていません。 たとえば、ユーザーが「下の写真の右側にあるラップトップの左側にある物体は何ですか?」と質問すると、GPT-4V はマグカップという誤った答えを返します。ユーザーが「窓側の席を探したいのですが、どこに座れますか?」と質問したところ、GPT-4V も間違った答えを返しました。 上記の問題を認識した後、マイクロソフト、香港科技大学などの研究者は、細粒度の視覚タスクにおける GPT-4V の問題を解決するために、新しい視覚プロンプト方式 Set-of-Mark (SoM) を提案しました。
図 1 (右) に示すように、SoM はインタラクティブなセグメンテーション モデル (SAM など) を使用して、画像をさまざまな粒度レベルの領域に分割し、これらの領域に文字、数字、マスク、ボックスなどのマークのセットを追加します。上記の問題を解決するには、ラベル付き画像を入力として使用します。 まずは結果を見てみましょう。左がGPT-4V、右がGPT-4V+SoMです。後者の分類の方が詳細かつ正確であることがわかります。 以下の例も同じですが、GPT-4V + SoM の効果はより明白です。 さらに、この研究では、「SoM は手動 (人間の入力) ですか、それとも自動ですか?」という質問がありました。 論文の筆頭著者であるJianwei Yang氏は、SoMは自動的または半自動的であると述べた。彼らは、SEEM、Semantic-SAM、SAM など、独自に構築した多数のセグメンテーション ツールをコンパイルし、ユーザーが画像を自動的にセグメント化できるようにしました。同時に、ユーザー自身が地域を選択することもできます。 視覚に関するSoMプロンプトSoM プロンプト GPT-4V を使用する独自の利点は、テキスト以外の出力を生成できることです。各トークンはマスクによって表される画像領域に具体的に関連付けられているため、テキスト出力内のトークンの言及のマスクを遡ることができます。 テキストとマスクのペアを生成する機能により、SoM は GPT-4V に視覚的に関連のあるテキストを生成するよう促すことができ、さらに重要なことに、通常の GPT-4V モデルでは課題となるさまざまなきめ細かい視覚タスクをサポートできます。 SoM は、シンプルなプロンプト エンジニアリングを通じて、GPT-4V を次のようなさまざまな視覚タスクで広く使用できるようにします。
実験と結果研究者たちは分割統治戦略を用いて実験と評価を実行した。評価中にコンテキストの漏洩が発生しないように、インスタンスごとに新しいチャット ウィンドウを使用しました。 具体的には、研究者は各データセットから検証データの小さなサブセットを選択しました。データセット内の各画像について、画像セグメンテーション ツールボックスを使用して抽出された領域に一連のマーカーを重ね合わせました。同時に、研究者は特定のタスクに基づいてさまざまなセグメンテーション ツールを使用して領域を提案します。 以下の表 1 に、各タスクのセットアップの詳細を示します。 研究者たちは自らのアプローチを以下のモデルと比較した。
定量的な結果 詳細な実験結果を以下の表2に示します。 1 つ目は画像セグメンテーションタスクです。研究者らは、COCO Panoptic セグメンテーション データセット上の強力なセグメンテーション モデル MaskDINO と、ADE20K Panoptic セグメンテーション データセット上のモデル OpenSeeD と、GPT-4V + SoM を比較しました。 結果は、GPT-4V + SoM のゼロショット パフォーマンスが微調整された MaskDINO のそれに近く、OpenSeeD を大幅に上回っていることを示しています。 GPT-4V の COCO と ADE20K での同様のパフォーマンスは、広範囲の視覚およびセマンティック領域のタスクに対する強力な一般化能力を示しています。 次に参照タスクが行われ、研究者はRefCOCOgデータセットでRESモデルとRECモデルを評価しました。彼らはMaskDINOを使用してマスクを提案し、画像にマスクと数字を重ね合わせます。また、評価指標として mIoU を使用し、SOTA 固有のモデルである PolyFormer および SEEM と比較します。 結果は、GPT-4V + SoM が Grounding DINO、Polyformer などの専用モデルや、Shikra、LLaVA-1.5、MiniGPT-v2、Ferret などの最近のオープンソース LMM よりも優れていることを示しています。 次は、Flickr30K でのフレーズ連想タスクです。研究者は Grounding DINO を使用して、各画像のボックス提案を生成します。 GPT-4V + SoM は、GLIPv2 や Grounding DINO よりも強力なゼロショット性能を実現します。 最後に、研究者らはDAVIS2017データセットでビデオセグメンテーションタスクを評価しました。 GPT-4V+SoM は、他の専用ビジョン モデルを上回る最高の追跡パフォーマンス (78.8 J&F) を実現します。 アブレーション研究 タグの種類が Flickr30k データセットのフレーズ連想タスクの最終的なパフォーマンスにどのように影響するかを調査し、2 種類のタグを比較しました。 1 つ目は数字とマスク、2 つ目は数字、マスク、ボックスです。 結果は下の表 3 に示されています。ボックスを追加すると、パフォーマンスが大幅に向上します。 さらに、研究者らは、グラウンドトゥルース注釈付きのトークンを生成する際に GPT-4V がどのように機能するかを調査しました。彼らは、予測されたセグメンテーション マスクを RefCOCOg 検証セット内のグラウンド トゥルース マスクに置き換えることを選択しました。つまり、GPT-4V は注釈フレーズ領域から 1 つを選択するだけで済みます。予想どおり、特にセグメンテーション モデルに欠落領域がある場合、参照セグメンテーションのパフォーマンスをさらに向上できます。 結果を下の表 4 に示します。SoM でグラウンド トゥルース マスクを使用すると、RefCOCOg のパフォーマンスが 14.5% (mIoU) 向上します。 より詳しい技術的な詳細と実験結果については、原著論文を参照してください。 |
<<: 新しい5文字描画言語が人気で、ChatGPTはそれを学習しました
>>: あなたの GPU は Llama 2 のような大規模なモデルを実行できますか?このオープンソースプロジェクトを試してみてください
[51CTO.com クイック翻訳] 人工知能ツールを導入する IT リーダーは、責任の取り方、プラ...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
人工知能 (AI) の民主化とは、AI ツール、テクノロジー、知識をより幅広い個人や組織が利用しやす...
電気スマートカーの発展により、自動車はもはや独立した機械的なハードウェアボックスではなく、センシング...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
データ サイエンスは幅広い分野であるため、まずはあらゆるビジネスで遭遇する可能性のあるデータ サイエ...
[[319373]]新型コロナウイルスが昨年12月に中国・武漢で発生して以来、過去数か月間に2,00...
2017年杭州雲奇大会が11日、杭州で開催されました。8年前のアリババクラウド開発者会議から8年後...
AI と IoT の統合により、私たちの日常生活に新たな効率、自動化、インテリジェンスがもたらされ...
最近、「2021 JD全国大学生アルゴリズム設計・プログラミングエリートコンテスト-コードの無限の想...
[51CTO.comからのオリジナル記事] 近年、生体認証技術はますます成熟し、私たちの生活の中に...