ロボットインテリジェント把持システム:いくつかの主流ソリューション

ロボットインテリジェント把持システム:いくつかの主流ソリューション

ロボット学習における典型的な問題の 1 つは、分類、つまり乱雑に積み重なったアイテムの山から目的のアイテムを取り出すことです。宅配業者の仕分け担当者にとっては、これはほとんど無意識のプロセスですが、ロボットアームにとっては複雑な行列計算を意味します。

[[373908]]

エクスプレスソーターが仕分け中

実際、人間が多くの時間を費やす必要がある難しい数学的および科学的問題は、インテリジェントシステムでは非常に簡単に処理できますが、ほとんど考えずに実行できる分類アクションは、世界中のロボット研究の専門家にとってホットな話題です。

ロボットアームの把持には、ロボットアームの各セグメントの位置と姿勢を決定する必要がある。

まず、ロボットアームは物体の位置を決定するために視覚サーボシステムを必要とします。エンドエフェクタ(手)と視覚センサー(目)の相対位置に応じて、 Eye-to-HandEye-in-Handの2つのシステムに分けられます。

Eye-to-Hand分離分布は固定視野を持ちます。カメラのキャリブレーション精度が高ければ、掴む際の視覚的な位置決め精度も高くなります。

Eye-in-Hand は、ロボットアームと視覚センサーを固定します。ロボットアームが動くと、視野が変化します。センサーが近いほど、精度が高くなります。ただし、近すぎると、ターゲットが視野から外れる可能性があります。

精密な視覚システムと柔軟なロボットアームの連携によってのみ、完璧な把持が実現できます。これは、現在のロボット操作における中核的な問題です。要約すると、適切な把持ポイント(または吸着ポイント)を見つけて、それを把持することです。後続の転送実行は、動作計画のブランチに属します。

いくつかの主流の解決策

モデルベース

この方法は理解しやすいです。つまり、何をつかむかを把握し、事前に対象物をスキャンし、モデルデータをロボットシステムに事前に提供します。実際のつかみ作業では、機械が実行する必要がある操作は少なくなります。

1.オフライン計算:搭載された端末の種類に応じて、各オブジェクトモデルのローカル把持ポイントを計算します。

2. オンライン認識:RGB またはポイントクラウド画像を通じて各オブジェクトの 3D ポーズを計算します。

3. 把持点の計算: 現実世界の座標系で、衝突回避などの要件に基づいて、各オブジェクトに最適な把持点を選択します。

RGB 色空間は、赤、緑、青の 3 つの基本色で構成されており、これらを重ね合わせることで任意の色を形成できます。同様に、任意の色は 3 つの基本色の組み合わせに分解できます。ロボットは色座標値を通じて「色」を理解します。この方式は人間の目が色を認識する方向に似ており、ディスプレイ画面で広く使用されています。

精密ベアリングのランダム把持用CGrasp

ハーフモデルベース

このトレーニング方法では、掴むべき物体を完全に予測する必要はありませんが、アルゴリズムが物体の山の中の画像を効果的に「セグメント化」し、物体のエッジを識別できるように、アルゴリズムをトレーニングするために多数の類似した物体が必要です。このトレーニング方法では、次のプロセスが必要です。

1. 画像セグメンテーション アルゴリズムのオフライン トレーニング。つまり、画像内のピクセルをオブジェクトごとに区別する作業です。このタイプの作業は、通常、エンジニアのニーズに応じて大量の画像内のさまざまな詳細にラベルを付ける専門のデータ ラベラーによって処理されます。

2. オンラインで画像セグメンテーションを処理し、手動でマークされたオブジェクト上の適切な把持ポイントを見つけます。

これは現在広く使用されている方法であり、ロボットアームが物を掴むための主な原動力でもあります。ロボットアームの技術はゆっくりと発展していますが、コンピュータービジョンによる画像セグメンテーションは急速に進歩しており、間接的にロボットや無人運転などの産業の発展にも貢献しています。

モデルフリー

このトレーニング方法には「物体」という概念は含まれません。機械は RGB 画像またはポイント クラウド マップから適切な把持ポイントを直接計算します。基本的な考え方は、画像上の対蹠点、つまり「把持」できるポイントを見つけて、徐々に把持戦略をトレーニングすることです。このトレーニング方法では、ロボットアームが多数の異なる種類のオブジェクトを試し、自己教師学習を実行できる場合が多くあります。Google の Arm Farm はその代表的なものの 1 つです。

[[373913]]

Google アームファーム

ロボットアームの場合、さまざまな形状の物体をつかむ難しさは大きく異なることに注意する必要があります。同じ形状の物体であっても、表面の反射率や周囲の照明の影響により、異なるシーンで物体を捉える難しさは大きく異なります。研究室から商品化までにはまだまだ長い道のりがあります。

高精度カメラの開発は、ロボットが物体を「認識」するための第一歩です。

実際のビジネス シナリオでは、最も厄介なオブジェクトは常に「次のオブジェクト」です。産業用ロボットを実際の生産システムに真に統合するには、使用シナリオを広げるために、産業用ロボットがスマートな頭脳を持ち、さまざまな作業条件に柔軟に対応できる必要があります。

<<:  2021年、ドローン配送は高速であるだけでなく、安定している必要がある

>>:  AIが「迷惑メール」をフィルタリングし、ユーザーが価値あるメールを素早く見つけられるようにする

ブログ    

推薦する

何年も救助ステーションに取り残されていた彼らは、顔認識技術によって愛する人を見つけることができた。

2年前、アンディ・ラウとジン・ボーランが主演した映画「恋の迷宮」は、数え切れないほどのファンを映画...

機械学習が失敗したらどうするか: 計算学習理論

導入顔認識モデルを構築し、検証セットを使用してテスト セットでの実験のパラメータを調整しているとしま...

ガートナーは、人間と機械の境界を曖昧にする5つの新たな技術トレンドを明らかにした。

世界有数の情報技術調査・コンサルティング会社であるガートナーが発表した「2018年新興技術ハイプサイ...

2021 年の AI イノベーション トレンド トップ 10

人工知能は、人々の日常の仕事や生活を変えるテクノロジーとイノベーションに関して、最もホットなトレンド...

...

...

Huice: 大手 e コマース企業が使用しているスマート小売管理ソフトウェアの優れた点は何でしょうか?

6月30日、北京地下鉄の改札口でデジタル人民元が支払いに使えるようになる。「孔坊兄弟」は再び変身し...

3月にGithubで最も人気のあるデータサイエンスと機械学習のプロジェクト

Analytics Vidhya は最近、3 月の GitHub で上位 5 つのデータ サイエンス...

...

PyTorch 1.12 がリリース、Apple M1 チップ GPU アクセラレーションを正式にサポート、多くのバグを修正

​PyTorch 1.12 が正式にリリースされました。まだアップデートしていない方は今すぐアップ...

...

旅の途中で「おもしろさ」が爆発!絵文字ジェネレーター、マスクがプリンセスに変身 | チュートリアル付き

Midjourney 5.2 はちょうど 1 週間前にリリースされ、さらに大きなアップデートが行われ...

映画の好みを予測しますか?オートエンコーダを使用して協調フィルタリングを実装する方法

推奨システムは、協調フィルタリングを使用して、ユーザーの好み情報を収集し、特定のユーザーの興味を予測...

期待する! 2020年までに中国の人工知能は世界の先進レベルに達するだろう

最近、北京は「科学技術革新の加速と人工知能産業の育成に関する指導意見」を発表し、北京の人工知能発展ス...