この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転載したものです。転載については出典元にお問い合わせください。 論文のアイデア:マスクされたオートエンコーディングは、テキスト、画像、そして最近ではポイントクラウド用の Transformer モデルの事前トレーニング パラダイムとして成功しています。生の自動車データセットは、3D オブジェクト検出 (OD) などのタスクの注釈に比べて収集コストが一般的に安価であるため、自己教師あり事前トレーニングに適しています。しかし、ポイントクラウド用のマスクされたオートエンコーダーの開発は、合成データと屋内データにのみ焦点を当ててきました。そのため、既存の方法では、均一な点密度を持つ小さくて密な点群に合わせて表現とモデルを調整してきました。この研究では、自動車の設定における点群のマスクされたオートエンコーディングを研究します。これらの点群はまばらで、同じシーン内の異なるオブジェクト間で密度が大きく異なる可能性があります。この目的のために、本論文では、ボクセル表現用に設計された単純なマスク付きオートエンコーディング事前トレーニング方式である Voxel-MAE を提案します。マスクされたボクセルを再構築し、空のボクセルと空でないボクセルを区別するために、Transformer ベースの 3D オブジェクト検出器バックボーンを事前トレーニングします。私たちの方法は、困難な nuScenes データセットで 3D OD パフォーマンスを 1.75 mAP と 1.05 NDS 向上させます。さらに、Voxel-MAE で事前トレーニングすることで、ランダムに初期化された同等のデータよりも優れたパフォーマンスを得るために、注釈付きデータの 40% のみが必要になることを示しています。 主な貢献:本稿では、ボクセル化されたポイントクラウドに MAE スタイルの自己教師付き事前トレーニングを展開する方法である Voxel-MAE を提案し、大規模な自動車ポイントクラウドデータセット nuScenes で評価します。私たちの方法は、自動車のポイントクラウドに Transformer バックボーンを使用する最初の自己教師付き事前トレーニング スキームです。 私たちはボクセル表現へのアプローチを調整し、独自の再構築タスクのセットを使用して、ボクセル化されたポイントクラウドの特性を捉えます。 私たちのアプローチはデータ効率が高く、注釈付きデータの必要性を減らすことを実証します。事前トレーニングでは、注釈付きデータの 40% のみを使用した場合でも、完全に教師ありのデータよりも優れたパフォーマンスを発揮します。 さらに、Voxel-MAE は、Transformer ベースの検出器のパフォーマンスを mAP で 1.75 パーセント ポイント、NDS で 1.05 パーセント ポイント向上させ、既存の自己教師あり方式に比べて 2 倍の改善を達成することがわかりました。 ネットワーク設計:この研究の目的は、MAE スタイルの事前トレーニングをボクセル化されたポイント クラウドに拡張することです。中心となる考え方は、図 2 に示すように、エンコーダーを使用して入力の部分的な観測から豊富な潜在表現を作成し、デコーダーを使用して元の入力を再構築することです。事前トレーニング後、エンコーダーは 3D オブジェクト検出器のバックボーンとして使用されます。ただし、画像とポイント クラウドの基本的な違いにより、Voxel-MAE を効果的にトレーニングするにはいくつかの変更が必要になります。 図 2: 当社の Voxel-MAE 手法。まず、ポイント クラウドは固定のボクセル サイズでボクセル化されます。図中のボクセル サイズは視覚化のために誇張されています。トレーニングの前に、空でないボクセルの大部分 (70%) がランダムにマスクされました。エンコーダは可視ボクセルにのみ適用され、動的ボクセル特徴埋め込み[46]を使用してこれらのボクセルが埋め込まれます。マスクされた空でないボクセルとランダムに選択された空のボクセルは、同じ学習可能なマスク トークンを使用して埋め込まれます。次に、デコーダーはマスク トークンのシーケンスとエンコードされた可視ボクセルのシーケンスを処理して、マスクされたポイント クラウドを再構築し、空のボクセルと空でないボクセルを区別します。事前トレーニング後、デコーダーは破棄され、エンコーダーがマスクされていないポイント クラウドに適用されます。 図 1: MAE (左) は、画像を固定サイズの重複しないパッチに分割します。既存のマスクされたポイント モデリング方法 (中央) は、最も遠いポイント サンプリングと k 近傍法を使用して、固定数のポイント クラウド パッチを作成します。私たちの方法 (右) では、重複しないボクセルと動的な数のポイントを使用します。 実験結果:引用:Hess G、Jaxing J、Svensson E、他「LIDAR点群の自己教師あり事前学習のためのマスクオートエンコーダー[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. 2023: 350-359」 |
>>: Meta がピクセルレベルのモーション トラッキング モデルを発表、簡易版はオンラインで利用可能
[51CTO.comよりオリジナル記事] 12月1日、WOT2018グローバル人工知能技術サミット...
[[313923]]今日は2020年2月2日、「千年に一度の対称の日」として知られています。202...
[[357137]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
Amazon SageMaker は、開発者やデータサイエンティストがあらゆる規模の機械学習モデルを...
テンセントのRobticsXロボティクス研究所の第一社員が始めたバイオニックロボットプロジェクトがつ...
Theano、Caffeに続き、大学主導のディープラーニングフレームワークがオープンソース化され、国...
ガベージ コレクターについて説明する前に、まずガベージ コレクション アルゴリズムと JVM のガベ...
Informa傘下の世界的に有名な市場調査会社Tractica/Ovumは、30の分野で約300件の...
農産物における人工知能の応用人工知能は、次のような農産物のあらゆる段階と側面に適用できます。農業: ...
[[272651]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
画像処理の分野では、AIブラシがますます目立つようになってきています。以前、AIロスレス画像拡大、A...