ロボット学習における典型的な問題の 1 つは、分類、つまり乱雑に積み重なったアイテムの山から目的のアイテムを取り出すことです。宅配業者の仕分け担当者にとっては、これはほとんど無意識のプロセスですが、ロボットアームにとっては複雑な行列計算を意味します。
エクスプレスソーターが仕分け中 実際、人間が多くの時間を費やす必要がある難しい数学的および科学的問題は、インテリジェントシステムでは非常に簡単に処理できますが、ほとんど考えずに実行できる分類アクションは、世界中のロボット研究の専門家にとってホットな話題です。 ロボットアームの把持には、ロボットアームの各セグメントの位置と姿勢を決定する必要がある。 まず、ロボットアームは物体の位置を決定するために視覚サーボシステムを必要とします。エンドエフェクタ(手)と視覚センサー(目)の相対位置に応じて、 Eye-to-HandとEye-in-Handの2つのシステムに分けられます。 Eye-to-Hand分離分布は固定視野を持ちます。カメラのキャリブレーション精度が高ければ、掴む際の視覚的な位置決め精度も高くなります。 Eye-in-Hand は、ロボットアームと視覚センサーを固定します。ロボットアームが動くと、視野が変化します。センサーが近いほど、精度が高くなります。ただし、近すぎると、ターゲットが視野から外れる可能性があります。 精密な視覚システムと柔軟なロボットアームの連携によってのみ、完璧な把持が実現できます。これは、現在のロボット操作における中核的な問題です。要約すると、適切な把持ポイント(または吸着ポイント)を見つけて、それを把持することです。後続の転送実行は、動作計画のブランチに属します。 いくつかの主流の解決策 モデルベース この方法は理解しやすいです。つまり、何をつかむかを把握し、事前に対象物をスキャンし、モデルデータをロボットシステムに事前に提供します。実際のつかみ作業では、機械が実行する必要がある操作は少なくなります。 1.オフライン計算:搭載された端末の種類に応じて、各オブジェクトモデルのローカル把持ポイントを計算します。 2. オンライン認識:RGB またはポイントクラウド画像を通じて各オブジェクトの 3D ポーズを計算します。 3. 把持点の計算: 現実世界の座標系で、衝突回避などの要件に基づいて、各オブジェクトに最適な把持点を選択します。 RGB 色空間は、赤、緑、青の 3 つの基本色で構成されており、これらを重ね合わせることで任意の色を形成できます。同様に、任意の色は 3 つの基本色の組み合わせに分解できます。ロボットは色座標値を通じて「色」を理解します。この方式は人間の目が色を認識する方向に似ており、ディスプレイ画面で広く使用されています。 精密ベアリングのランダム把持用CGrasp ハーフモデルベース このトレーニング方法では、掴むべき物体を完全に予測する必要はありませんが、アルゴリズムが物体の山の中の画像を効果的に「セグメント化」し、物体のエッジを識別できるように、アルゴリズムをトレーニングするために多数の類似した物体が必要です。このトレーニング方法では、次のプロセスが必要です。 1. 画像セグメンテーション アルゴリズムのオフライン トレーニング。つまり、画像内のピクセルをオブジェクトごとに区別する作業です。このタイプの作業は、通常、エンジニアのニーズに応じて大量の画像内のさまざまな詳細にラベルを付ける専門のデータ ラベラーによって処理されます。 2. オンラインで画像セグメンテーションを処理し、手動でマークされたオブジェクト上の適切な把持ポイントを見つけます。 これは現在広く使用されている方法であり、ロボットアームが物を掴むための主な原動力でもあります。ロボットアームの技術はゆっくりと発展していますが、コンピュータービジョンによる画像セグメンテーションは急速に進歩しており、間接的にロボットや無人運転などの産業の発展にも貢献しています。 モデルフリー このトレーニング方法には「物体」という概念は含まれません。機械は RGB 画像またはポイント クラウド マップから適切な把持ポイントを直接計算します。基本的な考え方は、画像上の対蹠点、つまり「把持」できるポイントを見つけて、徐々に把持戦略をトレーニングすることです。このトレーニング方法では、ロボットアームが多数の異なる種類のオブジェクトを試し、自己教師学習を実行できる場合が多くあります。Google の Arm Farm はその代表的なものの 1 つです。
Google アームファーム ロボットアームの場合、さまざまな形状の物体をつかむ難しさは大きく異なることに注意する必要があります。同じ形状の物体であっても、表面の反射率や周囲の照明の影響により、異なるシーンで物体を捉える難しさは大きく異なります。研究室から商品化までにはまだまだ長い道のりがあります。 高精度カメラの開発は、ロボットが物体を「認識」するための第一歩です。 実際のビジネス シナリオでは、最も厄介なオブジェクトは常に「次のオブジェクト」です。産業用ロボットを実際の生産システムに真に統合するには、使用シナリオを広げるために、産業用ロボットがスマートな頭脳を持ち、さまざまな作業条件に柔軟に対応できる必要があります。 |
<<: 2021年、ドローン配送は高速であるだけでなく、安定している必要がある
>>: AIが「迷惑メール」をフィルタリングし、ユーザーが価値あるメールを素早く見つけられるようにする
ヘルスケア業界は常にイノベーションの先駆者であり続けています。しかし、病気やウイルスが変異し続ける中...
ディープラーニングの分野で最も有名な学者の一人であるヤン・ルカン氏が本日、自身のFacebookに投...
まず、タイトルには、検索構造ではなく、ルーティング項目の配置構造と書かれています。つまり、この構造を...
[[199239]]今日は、プログラマーにとっての困難がどこにあるのかについて議論しましょう。アル...
人工知能の破壊的な可能性を解き放ち、それがドローンの未来をどのように変えるのかを探ります。常に進化を...
Baidu Smart Cloud は、「クラウドとインテリジェンスの統合」という独自の利点により...
最近、大規模なニューラル ネットワークが生成モデルに革命をもたらし、高解像度画像内のすべてのピクセル...
破壊的技術により、CIO はこれまで以上に重要な役割を果たすようになっています。 CIO の役割は長...
アドバンテックは、2018年11月1日~2日に開催されたアドバンテックIoT共創サミットにおいて、プ...
OpenAI がまたしてもビッグトリックを公開しました!簡単に言えば、サム・アルトマンは市場にあるす...
現在、ロボットはさまざまな業界で広く使用され、さまざまな作業に従事しています。これは、ロボットの開発...
Facebook では、応用機械学習チームがソーシャル ネットワークの視覚、会話、理解を支援してお...
人工知能は国際競争の新たな焦点となりつつあり、同時に人類社会に新たな発展の機会をもたらしています。機...