この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 2D 画像で 3D オブジェクト検出を行うのは難しいですか? 今では、携帯電話だけでリアルタイムに行うことができます。 これはGoogle AIが本日リリースした、3Dオブジェクトをリアルタイムで検出できるパイプライン、MediaPipe Objectronです。 別途: MediaPipe は、さまざまなモードの知覚データを処理するためのパイプラインを構築するためのオープンソースのクロスプラットフォーム フレームワークです。 Objectron は、モバイル デバイス上でオブジェクト指向の 3D 境界ボックスをリアルタイムで計算します。 日常生活の物体を検知できます。効果を見てみましょう。 モバイル デバイス上でオブジェクトの位置、方向、サイズをリアルタイムで判断できます。 このパイプラインは、2D 画像内のオブジェクトを検出し、機械学習モデルを使用してそのポーズとサイズを推定します。 それで、具体的にはどうやってこれを実現するのでしょうか? 現実世界から3Dデータを取得する3D データセットは 2D データセットに比べて非常に制限されていることがわかっています。 この問題に対処するため、Google AI の研究者は、モバイル拡張現実 (AR) セッション データを使用した新しいデータ パイプラインを開発しました。 現在、ほとんどのスマートフォンには拡張現実機能が搭載されており、カメラのポーズ、スパース 3D ポイント クラウド、推定照明、平面などの追加情報をその過程でキャプチャします。 研究者らは、グラウンドトゥルースデータにラベルを付けるために新しい注釈ツールを構築し、それを AR セッションデータとともに使用して、注釈者がオブジェクトの 3D 境界ボックスにすばやくラベルを付けられるようにしました。 このツールは、下の図に示すように、分割画面ビューを使用して 2D ビデオ フレームを表示します。 左側には重ね合わせた 3D 境界ボックスがあり、右側には 3D ポイント クラウド、カメラの位置、検出面を示すビューがあります。 注釈者は 3D ビューに 3D 境界ボックスを描画し、2D ビデオ フレームでの投影を見てその位置を確認します。 静的オブジェクトの場合、1 つのフレーム内の 1 つのオブジェクトに注釈を付け、AR セッション データからのグラウンド トゥルース カメラの姿勢情報を使用してその位置をすべてのフレームに伝播するだけで済みます。 これにより、プロセスが非常に効率的になります。 AR合成データ生成予測の精度を向上させるために、現在一般的な方法は、現実世界のデータを合成 3D データで「埋め込む」ことです。 しかし、これによって生成されるデータは非常に非現実的なものになることが多く、大量の計算作業も必要になります。 Google AI は、 AR 合成データ生成という新しい方法を提案しました。 これにより、研究者はカメラの姿勢、検出された平面、推定された照明を使用して、物理的に可能な位置とシーンに一致する照明の位置を生成できます。 このアプローチにより、高品質の合成データが生成され、実際のデータと組み合わせて使用することで、精度を約 10% 向上させることができました。 3D オブジェクト検出のための機械学習パイプラインこの目標を達成するために、研究者らは、RGB 画像から物体の姿勢と物理的なサイズを予測する単一段階のモデルを構築しました。 モデル バックボーンには、MobileNetv2 に基づくエンコーダー/デコーダー アーキテクチャがあります。 検出と回帰を通じてオブジェクトの形状を共同で予測するために、マルチタスク学習アプローチも採用されています。 形状タスクの場合、オブジェクトの形状信号は、利用可能なグラウンド トゥルース注釈 (セグメンテーションなど) に基づいて予測されます。検出タスクの場合、注釈付きの境界ボックスが使用され、ボックスの重心を中心とし、ボックスのサイズに比例した標準偏差を持つガウス分布がボックスにフィットされます。 検出の目的は、この分布を予測することであり、そのピークはオブジェクトの中心位置を表します。 回帰タスクは、境界ボックスの 8 つの頂点の 2D 投影を推定します。境界ボックスの最終的な 3D 座標を取得するために、オブジェクトのサイズを知らなくてもオブジェクトの 3D 境界ボックスを復元できる、確立されたポーズ推定アルゴリズム (EPnP) も利用されます。 3D バウンディング ボックスを使用すると、オブジェクトのポーズとサイズを簡単に計算できます。 このモデルは非常に軽量で、モバイル デバイス上でリアルタイムに実行できます。 MediaPipe での検出と追跡このモデルをモバイル デバイスで使用すると、各フレームの 3D 境界ボックスのあいまいさにより、モデルが「ジッター」する可能性があります。 この状況を緩和するために、研究者らは「2D ワールド」で最近公開された検出 + 追跡フレームワークを採用しました。 このフレームワークにより、フレームごとにネットワークを実行する必要性が軽減され、パイプラインでリアルタイムのパフォーマンスを維持しながら、より大規模で正確なモデルが可能になります。 モバイル パイプラインの効率をさらに向上させるために、モデル推論は数フレームごとに 1 回だけ実行します。 最後に、このような素晴らしいプロジェクトがもちろんオープンソース化されました。 下のリンクをクリックして試してみてください〜 ポータルGitHub プロジェクト アドレス: Google AI ブログ: |
<<: テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用
データ ポイントを特定の数の定義済みクラスに分類するように ML モデルをトレーニングすることがタス...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
検索分野では、Google画像検索、Baidu画像検索、Taobaoの商品写真検索など、「類似画像・...
2017年、『エコノミスト』誌は、石油ではなくデータが世界で最も価値のある資源になったと宣言し、この...
[[219484]] 2017 年に 1 年間眠っていたのに、突然目が覚めて、今年世界で最も誇るべ...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
人工知能は、SFの世界のものから、私たちの日常生活に影響を与える重要な技術へと変化しました。現在、多...
スマートホームのコンセプトを最も簡単に説明すると、それは家の自然な進化であるということです。スマート...
先日行われた世界的に権威のある多言語理解評価XTREME(Cross-Lingual Transfe...
生成AIには長い歴史があります。いくつかの情報源によれば、1950 年代にはすでに登場していたようで...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...