Alibaba のビッグモデルが再びオープンソース化されました!画像を読み取り、物体を認識することができ、市販されているTongyi Qianwen 7Bをベースに構築されています。

Alibaba のビッグモデルが再びオープンソース化されました!画像を読み取り、物体を認識することができ、市販されているTongyi Qianwen 7Bをベースに構築されています。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

アリババのオープンソースビッグモデルがまた更新されました〜

同義千文7号B (Qwen-7B)に続いて、アリババクラウドは大規模視覚言語モデルQwen-VLをリリースしました。これはオンラインになるとすぐにオープンソース化されました。

具体的には、Qwen-VLはTongyi Qianwen-7Bをベースに構築された大規模なマルチモーダルモデルです。画像、テキスト、検出ボックスなどの複数の入力をサポートし、テキストに加えて検出ボックスの出力もサポートしています。

たとえば、アーニャの写真を入力します。質問と回答の形式を通じて、Qwen-VL-Chat は写真の内容を要約するだけでなく、写真内のアーニャを見つけることもできます。

テストタスクでは、Qwen-VL は「六角形の戦士」の強さを発揮し、4 つの主要なタイプのマルチモーダルタスク (ゼロショット キャプション/VQA/DocVQA/グラウンディング) の標準英語評価で SOTA を達成しました。

オープンソースのニュースが出るとすぐに、大きな注目を集めました。

具体的なパフォーマンスを見てみましょう〜

中国のオープンドメインポジショニングをサポートする最初の汎用モデル

まず、Qwen-VLシリーズモデルの特徴を見てみましょう。

  • 多言語ダイアログ: 多言語ダイアログをサポートし、画像内の中国語と英語の長いテキスト認識をエンドツーエンドでサポートします。
  • マルチ画像インターレースダイアログ:マルチ画像の入力と比較、特定の画像に関するQ&A、マルチ画像の文学作品作成などをサポートします。
  • 中国語オープンドメインポジショニングをサポートする最初の汎用モデル:検出ボックスに中国語オープンドメイン言語表現を使用して注釈が付けられているため、画像内でターゲットオブジェクトを正確に見つけることができます。
  • きめ細かい認識と理解: 現在使用されている他のオープンソース LVLM (大規模ビジュアル言語モデル)で使用されている 224 解像度と比較して、Qwen-VL は最初のオープンソース 448 解像度 LVLM モデルです。解像度を高くすると、きめ細かいテキスト認識、ドキュメントの質問への回答、検出ボックスの注釈付けが向上します。

シナリオの面では、Qwen-VL は、知識質疑応答、画像質疑応答、ドキュメント質疑応答、きめ細かい視覚的ポジショニングなどのシナリオで使用できます。

例えば、中国語が読めない外国人の友人が病院で治療を受ける際、ナビゲーションマップを見て混乱し、対応する科にどうやって行けばよいか分からなくなった場合、地図と質問を直接Qwen-VLに投げて、画像情報に基づいて翻訳させることができます。

複数の画像の入力と比較をテストしてみましょう。

アーニャだとは分かりませんでしたが、私の感情的な判断はかなり正確でした(犬の頭)。

視覚的な位置決め機能に関しては、画像が非常に複雑で多くのキャラクターが含まれている場合でも、Qwen-VL は要求に応じてハルクとスパイダーマンを正確に見つけることができます。

技術的な詳細について言えば、Qwen-VL は Qwen-7B に基づく言語モデルです。モデル アーキテクチャにビジュアル エンコーダ ViT を導入し、位置認識ビジュアル言語アダプターを介して 2 つを接続することで、モデルがビジュアル信号入力をサポートするようになります。

具体的なトレーニングプロセスは、次の 3 つのステップに分かれています。

  • 事前トレーニング: ビジュアル エンコーダーとビジュアル言語アダプターのみを最適化し、言語モデルを固定します。大規模な画像とテキストのペアリングデータを使用する場合、入力画像の解像度は 224 x 224 です。
  • マルチタスク事前トレーニング: マルチタスク共同事前トレーニング用に、VQA、テキスト VQA、参照理解などの高解像度 (448x448) のマルチタスク視覚言語データを導入します。
  • 教師あり微調整: ビジュアル エンコーダーをフリーズし、言語モデルとアダプターを最適化します。プロンプトは会話インタラクション データを使用して調整され、インタラクティブ機能を備えた最終的な Qwen-VL-Chat モデルが得られます。

研究者らは、マルチモーダルタスクの 4 つの主要カテゴリ (ゼロショット キャプション/VQA/DocVQA/グラウンディング) の標準的な英語評価で Qwen-VL をテストしました。

結果は、Qwen-VL が同じサイズのオープンソース LVLM の中で最良の結果を達成することを示しています。

さらに、研究者らは、GPT-4 スコアリング メカニズムに基づいたテスト セットTouchStone を構築しました。

この比較テストでは、Qwen-VL-Chat が SOTA を達成しました。

Qwen-VL に興味がある方は、Moda コミュニティと huggingface でデモを入手できます。リンクは記事の最後にあります。

Qwen-VLは研究者や開発者による二次開発をサポートしており、商用利用も可能となっています。ただし、商用利用の場合は事前にアンケート申請書に記入する必要があるので注意が必要です。

プロジェクトリンク: https://modelscope.cn/models/qwen/Qwen-VL/summary
https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary
https://huggingface.co/Qwen/Qwen-VL
https://huggingface.co/Qwen/Qwen-VL-Chat
https://github.com/QwenLM/Qwen-VL

論文アドレス: https://arxiv.org/abs/2308.12966

<<: 

>>:  致命的な幻覚問題、GPU 代替品の開発、大規模モデルが直面するその他の 10 の課題

ブログ    
ブログ    
ブログ    

推薦する

汎用人工知能は存在するのか?

現在、一部の学者は、汎用人工知能を研究したいと言っています。これは、機械翻訳、音声認識、画像の分類と...

GenAIは将来のインシデント管理プロセスを形作っています

回答者の大多数 (59.4%) は明確なインシデント管理プロセスを導入しており、自動化のレベルはニー...

...

とてもかっこいいですね! Python で人工知能の最適化アルゴリズムを 5 分で理解する

概要勾配降下法は、ニューラル ネットワークでよく使われる最適化アルゴリズムの 1 つです。一般的に、...

ブロックチェーンと人工知能、統合開発の「win-winゲーム」

[[259445]]ブロックチェーンと人工知能はどちらも今話題になっています。クールな「ブラックテ...

よく使われる8つのソートアルゴリズム - Javaコード実装

1. バブルソート改良版: 2. 選択ソート3. 挿入ソート4. シェルソート5. クイックソート6...

ディープラーニングと機械学習を混同しないでください。

[[313942]] [51CTO.com クイック翻訳] ご存知のとおり、ディープラーニングは人...

...

ビジネスインテリジェンスの歴史と発展についてお話ししましょう

1865 年に、リチャード・ミラー・デベンスは著書『A Complete Collection of...

ディープラーニングに新たな落とし穴が!シドニー大学は、テキストを使用して画像のマット化をガイドする新しいクロスモーダルタスクを提案しています

画像マッティングとは、画像内の正確な前景を抽出することを指します。現在の自動方法では、画像内のすべて...

人工直感は人工知能の次の発展方向となるだろう

AI はこれまでに開発された最も強力なテクノロジーの 1 つですが、すでに 4 回の進化を経ています...

Baidu Brainは、顔をスキャンしてWeChat Momentsで拡散できるAIベースの春節連句をサポート

大晦日、家族が集まる夜。 1月28日、オンライン春節祝賀会(略称オンライン春節祝賀会)が予定通り開催...

自動化によって、採用担当者が大規模な適格な人材を特定する方法

AI ベースの自動化ツールは、候補者データを収集して処理し、候補者の調達、スクリーニング、多様性、そ...

AI導入から最大限の価値を引き出す方法

[[344258]]業界をリードする組織を対象とした調査では、世界中の組織の大多数 (91.6%) ...