この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 2D 画像で 3D オブジェクト検出を行うのは難しいですか? 今では、携帯電話だけでリアルタイムに行うことができます。 これはGoogle AIが本日リリースした、3Dオブジェクトをリアルタイムで検出できるパイプライン、MediaPipe Objectronです。 別途: MediaPipe は、さまざまなモードの知覚データを処理するためのパイプラインを構築するためのオープンソースのクロスプラットフォーム フレームワークです。 Objectron は、モバイル デバイス上でオブジェクト指向の 3D 境界ボックスをリアルタイムで計算します。 日常生活の物体を検知できます。効果を見てみましょう。 モバイル デバイス上でオブジェクトの位置、方向、サイズをリアルタイムで判断できます。 このパイプラインは、2D 画像内のオブジェクトを検出し、機械学習モデルを使用してそのポーズとサイズを推定します。 それで、具体的にはどうやってこれを実現するのでしょうか? 現実世界から3Dデータを取得する3D データセットは 2D データセットに比べて非常に制限されていることがわかっています。 この問題に対処するため、Google AI の研究者は、モバイル拡張現実 (AR) セッション データを使用した新しいデータ パイプラインを開発しました。 現在、ほとんどのスマートフォンには拡張現実機能が搭載されており、カメラのポーズ、スパース 3D ポイント クラウド、推定照明、平面などの追加情報をその過程でキャプチャします。 研究者らは、グラウンドトゥルースデータにラベルを付けるために新しい注釈ツールを構築し、それを AR セッションデータとともに使用して、注釈者がオブジェクトの 3D 境界ボックスにすばやくラベルを付けられるようにしました。 このツールは、下の図に示すように、分割画面ビューを使用して 2D ビデオ フレームを表示します。 左側には重ね合わせた 3D 境界ボックスがあり、右側には 3D ポイント クラウド、カメラの位置、検出面を示すビューがあります。 注釈者は 3D ビューに 3D 境界ボックスを描画し、2D ビデオ フレームでの投影を見てその位置を確認します。 静的オブジェクトの場合、1 つのフレーム内の 1 つのオブジェクトに注釈を付け、AR セッション データからのグラウンド トゥルース カメラの姿勢情報を使用してその位置をすべてのフレームに伝播するだけで済みます。 これにより、プロセスが非常に効率的になります。 AR合成データ生成予測の精度を向上させるために、現在一般的な方法は、現実世界のデータを合成 3D データで「埋め込む」ことです。 しかし、これによって生成されるデータは非常に非現実的なものになることが多く、大量の計算作業も必要になります。 Google AI は、 AR 合成データ生成という新しい方法を提案しました。 これにより、研究者はカメラの姿勢、検出された平面、推定された照明を使用して、物理的に可能な位置とシーンに一致する照明の位置を生成できます。 このアプローチにより、高品質の合成データが生成され、実際のデータと組み合わせて使用することで、精度を約 10% 向上させることができました。 3D オブジェクト検出のための機械学習パイプラインこの目標を達成するために、研究者らは、RGB 画像から物体の姿勢と物理的なサイズを予測する単一段階のモデルを構築しました。 モデル バックボーンには、MobileNetv2 に基づくエンコーダー/デコーダー アーキテクチャがあります。 検出と回帰を通じてオブジェクトの形状を共同で予測するために、マルチタスク学習アプローチも採用されています。 形状タスクの場合、オブジェクトの形状信号は、利用可能なグラウンド トゥルース注釈 (セグメンテーションなど) に基づいて予測されます。検出タスクの場合、注釈付きの境界ボックスが使用され、ボックスの重心を中心とし、ボックスのサイズに比例した標準偏差を持つガウス分布がボックスにフィットされます。 検出の目的は、この分布を予測することであり、そのピークはオブジェクトの中心位置を表します。 回帰タスクは、境界ボックスの 8 つの頂点の 2D 投影を推定します。境界ボックスの最終的な 3D 座標を取得するために、オブジェクトのサイズを知らなくてもオブジェクトの 3D 境界ボックスを復元できる、確立されたポーズ推定アルゴリズム (EPnP) も利用されます。 3D バウンディング ボックスを使用すると、オブジェクトのポーズとサイズを簡単に計算できます。 このモデルは非常に軽量で、モバイル デバイス上でリアルタイムに実行できます。 MediaPipe での検出と追跡このモデルをモバイル デバイスで使用すると、各フレームの 3D 境界ボックスのあいまいさにより、モデルが「ジッター」する可能性があります。 この状況を緩和するために、研究者らは「2D ワールド」で最近公開された検出 + 追跡フレームワークを採用しました。 このフレームワークにより、フレームごとにネットワークを実行する必要性が軽減され、パイプラインでリアルタイムのパフォーマンスを維持しながら、より大規模で正確なモデルが可能になります。 モバイル パイプラインの効率をさらに向上させるために、モデル推論は数フレームごとに 1 回だけ実行します。 最後に、このような素晴らしいプロジェクトがもちろんオープンソース化されました。 下のリンクをクリックして試してみてください〜 ポータルGitHub プロジェクト アドレス: Google AI ブログ: |
<<: テンセントの高性能グラフコンピューティングフレームワークPlatoとそのアルゴリズムの応用
大学は関連専攻を開設する際に、教授委員会と学術委員会を組織し、国の人材政策、業界の人材需要、国内外の...
[[343329]]人工知能はどのようにして「IQ検出器」になったのでしょうか? 5G が 4G ...
[[415649]]最近、米国防総省は、大量の情報源を分析し、数日後の敵の行動を1分以内に予測し、事...
ネイト・ロシディ翻訳者 | ブガッティレビュー | Chonglou制作:51CTO テクノロジース...
建国記念日の休日中は家にいて、Google カンファレンスを視聴しました。これらの製品のいくつかを見...
12月26日、専門家が実施した最近の調査では、ChatGPTが提供する提案は、人間の専門家が提供す...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
[[392372]] 4月9日、注目されていた「初の顔認証事件」の最終判決が下された。被告杭州野生動...
[[259329]] 2018年上半期現在、中国には922社の人工知能企業があり、そのうち97%は今...