視覚幻覚は、マルチモーダル大規模言語モデル (MLLM) でよく見られる典型的な問題です。 簡単に言えば、モデルによって出力された説明が画像の内容と一致しません。 下の画像には 2 つの錯視が示されています。赤い部分は犬の色を誤って表現しており (属性錯視)、青い部分は画像内に実際には存在しないものを表現しています (対象錯視)。 幻覚はモデルの信頼性に重大な悪影響を及ぼすため、多くの研究者の注目を集めています。 これまでの方法では、トレーニング データとアーキテクチャを改善し、微調整して新しい MLLM をトレーニングすることで、主に MLLM 自体に重点が置かれていました。 ただし、このアプローチでは、データ構築とトレーニングのオーバーヘッドが大きくなり、さまざまな既存の MLLM に拡張することが困難になります。 最近、USTC やその他の機関の研究者は、MLLM 出力幻覚の問題を修正によって解決するために、 「Woodpecker」と呼ばれるトレーニング不要のプラグアンドプレイの汎用アーキテクチャを提案しました。 論文アドレス: https://arxiv.org/pdf/2310.16045.pdf プロジェクトアドレス: https://github.com/BradyFU/Woodpecker エフェクト表示具体的には、Woodpecker はさまざまなシナリオでモデルが出力した幻覚を修正し、対応するターゲットが存在することを示す証拠として検出ボックスを出力します。 たとえば、説明タスクに直面したとき、Woodpecker は幻覚を修正できます。 MLLM では検出が難しい小さな物体についても、Woodpecker は正確に補正することができます。 Woodpecker は、MLLM では解決が難しい複雑なカウント シナリオも解決できます。 Woopecker は、ターゲット属性クラスの幻覚問題も非常にうまく処理します。 さらに、Woodpecker は読者がテストできるデモも提供しています。 下図のように、画像をアップロードしてリクエストを入力すると、修正前と修正後のモデルレスポンスと、参考検証用の新しい画像を取得できます。 方法Woodpecker のアーキテクチャは次の通りで、キーコンセプトの抽出、質問の構築、視覚的な知識の検証、視覚的なアサーションの生成、幻覚の修正という 5 つの主要なステップで構成されています。 - キーコンセプトの抽出 重要な概念は、上記の説明にある「自転車、ゴミ箱、人」など、MLLM の出力に最も幻覚の可能性が高いターゲットが存在することを指します。 Prompt 言語モデルを使用すると、後続のステップの基礎となるこれらの重要な概念を抽出できます。 - 疑問文の構成 前のステップで抽出された主要な概念に基づいて、Prompt 大規模言語モデルは、「写真には何台の自転車がありますか?」、「ゴミ箱の隣には何がありますか?」など、画像の説明の信憑性を検証するのに役立ついくつかの質問をします。 - 視覚的知識テスト 質問は、画像と説明文に関連する情報を取得するために、視覚的根拠モデルを使用してテストされます。 たとえば、GroundingDINO を使用してオブジェクト検出を実行し、キー オブジェクトが存在するかどうか、およびキー オブジェクトの数を判断できます。 GroundingDINO などの Visual Basic モデルは、MLLM 自体よりも強力な画像認識機能を備えているためです。 ターゲットカラーなどの属性に関する質問には、BLIP-2 を使用して回答できます。 BLIP-2 などの従来の VQA モデルでは、出力される回答の長さが制限されており、幻覚に関する質問も少なくなっています。 - 視覚的なアサーションの生成 最初の 2 つのステップで得られた質問と対応する視覚情報に基づいて、構造化された「視覚的アサーション」を統合します。これらの視覚的なアサーションは、元の MLLM の回答と入力画像に関連する視覚的な知識ベースとして見ることができます。 - 幻覚の修正 これまでの結果を踏まえ、大規模言語モデルを用いてMLLMのテキスト出力を一つずつ修正し、対象に対応する検出ボックス情報を目視検査の参考として提供します。 実験結果この実験では、LLaVA、mPLUG-Owl、Otter、MiniGPT-4 など、いくつかの典型的な MLLM をベースラインとして選択しました。 この論文では、まず Woodpecker のターゲット幻覚を修正する能力をテストしました。POPE 検証セットでの実験結果を次の表に示します。 結果は、異なる MLLM に Woodpecker 補正を適用すると、異なる程度の改善が達成できることを示しています。 ランダム設定では、Woodpecker は精度指標において MiniGPT-4 と mPLUG-Owl にそれぞれ 30.66% と 24.33% の改善をもたらします。 さらに、研究者らは、より包括的な検証セットである MME を適用して、Woodpecker の属性幻覚を修正する能力をさらにテストしました。結果は次の表に示されています。 表から、Woodpecker はターゲット錯覚に対処するのに効果的であるだけでなく、色などの属性錯覚の修正にも優れていることがわかります。 LLaVAのカラースコアは78.33ポイントから155ポイントに大幅に向上しました! Woodpecker 補正後、4 つのテスト サブセット上の 4 つのベースライン モデルの合計スコアはすべて 500 ポイントを超え、全体的な認識能力が大幅に向上しました。 修正のパフォーマンスをより直接的に測定するには、オープン評価を使用するのがより直接的なアプローチです。 画像を翻訳してプレーンテキストの GPT-4 に取り込むというこれまでの方法とは異なり、この記事では、OpenAI が最近公開したビジュアル インターフェイスを使用し、GPT-4 (Vision) を使用して、修正前と修正後の画像の説明の次の 2 つの次元を直接スコアリングすることを提案しています。 - 精度: 画像の内容に対するモデルの応答はどの程度正確ですか? - 詳細レベル: モデルの応答の詳細の豊富さ 実験条件下での実験結果は次の表に示されています。 結果は、Woodpecker 補正後に画像の説明の精度が向上したことを示しており、フレームワークが説明の幻覚部分を効果的に修正できることを示しています。 一方、Woodpecker 補正によって導入された位置情報は、テキストの説明を充実させ、さらなる位置情報を提供するため、詳細の豊富さが向上します。 GPT-4V を活用した評価サンプルを下図に示します。 興味のある読者は、論文を読んで詳細を知ることができます。 |
<<: ワークスペースデザインの未来: AI、3Dウォークスルー、リアルタイムコラボレーション
>>: 海外のJavaエンジニアがGPT-4が論理パズルを解くことはできないが推論能力はあることを証明
[[421134]]ロボット工学と自動化には違いがありますか? 自動化が適用されるかどうかわからない...
臨床試験はここ数年で大きく変化しました。医薬品や医療機器、そしてそれらが影響を与える対象となる症状が...
人工知能 (AI) と機械学習 (ML) の分野では、意思決定プロセスに予測モデルを組み込むことがま...
現在の半導体サプライチェーンのボトルネックの根本的な原因は何年も前から潜んでいたが、COVID-19...
[[186234]] 3月22日、百度のトップ科学者アンドリュー・ン氏は、英語のセルフメディアプラッ...
[[373805]]画像ソース: https://pixabay.com/images/id-577...
[[327668]]コンピュータービジョンを研究している大学院生 985 人が卒業後に就職できない...
人工知能は最近テクノロジーの世界で話題になっています。それは人々の生活を変えただけでなく、さまざまな...
マルチモーダル大型モデル着陸の風がようやく吹いた。 12日前、OpenAIはChatGPTに画像認識...
シンガポールは、都市国家内での違法行為を阻止するためにロボットを活用している。しかし、ロボット警官が...
[[211446]]この記事では、ロンドン大学ユニバーシティ・カレッジ (UCL) の Thomas...
6月19日、第17回IEEEコンピュータ協会バイオメトリクスワークショップ(CVPR22)とAnt...
2022年7月12日、九張雲済DataCanvas社は、もう一つの画期的なオープンソース技術成果であ...
ChatGPTを理解するOpenAI によって開発された ChatGPT は、受信した入力に基づいて...