最近、NVIDIA GPU 製品や SDK を使用してディープラーニングを学習している学生に多く出会いました。これらの言葉をよく目にしますが、混乱しがちです。今日は見てみましょう。 これらの概念について説明する前に、まずディープラーニングとは何かについて基本的な理解を深めましょう。 ディープラーニングは、複数、場合によっては数百の層の関数を使用することを特徴とする機械学習の分野です。ディープラーニングは、線形分類が可能なパーセプトロンから、より複雑な関数を近似するために複数のレイヤーを追加するものへと進化しました。畳み込み層を追加すると、小さな画像の処理性能が向上し、手書きの数字も認識できるようになります。現在では、大規模な画像データセットと高性能な並列計算が利用できるようになり、畳み込みネットワークが大規模な画像に適用され、これまでは実現不可能だった幅広いアプリケーションが可能になっています。 ここでは、ディープラーニングがどのように使用されているか、実際のアプリケーションをいくつか紹介します。 ディープラーニングが優れている分野の一つは、画像分類と物体検出であり、ロボット工学や自律走行車などのアプリケーションで使用できます。ロボット工学にとって、物体検出は、ロボットが視覚情報をインテリジェントに使用して環境と対話できるようにするため重要です。ディープラーニングは、視覚を通じて人物の身元を確認できる顔認識にも使用されており、スマートフォンでは一般的です。しかし、ディープラーニングは画像処理だけではなく、スマートスピーカーや音声アシスト検索などの自然言語処理にも活用できます。その他のアプリケーションには、医療用画像処理、地震画像の解釈、コンテンツ推奨システムなどがあります。 多くのアプリケーションはクラウドの強力なパフォーマンスを活用できますが、一部のアプリケーションでは活用できません。たとえば、ロボットや自律走行車など、応答時間と信頼性が重要な一部のアプリケーションでは、低レイテンシが求められます。ビデオ分析などの高帯域幅を必要とするアプリケーションもあり、複数のカメラからリモート サーバーにデータを継続的にストリーミングすることは現実的ではありません。医療用画像処理など、患者データのプライバシーに関わるアプリケーションもいくつかあります。また、クラウドはドローンには使用できません。これらのアプリケーションでは、センサー自体またはその近くでの処理が必要です。そのため、NVIDIA Jetson プラットフォームはエッジ コンピューティングに最適なプラットフォームです。 Jetson プラットフォームの一般的なワークフローは、GPU サーバーまたはワークステーションでトレーニングを実行し、トレーニング済みのデータ モデルを Jetson でのエッジ推論に使用することです。 Nvidia は、すべての主要なディープラーニング ソフトウェア フレームワークに CUDA アクセラレーションを統合することで、モデルのトレーニングを容易にしました。これらのソフトウェア フレームワークは、ディープラーニング アプリケーションの開発と展開のプロセスを簡素化します。 これらのフレームワークのほとんどには微妙な違いがありますが、一般的にはそれぞれニューラル ネットワークを構築するための方法と、それをトレーニングするためのアルゴリズムを提供します。さまざまなフレームワークがあり、それぞれに利点がありますが、 TF - テンソルフロー Tensorflowはディープラーニングフレームワークの一つです TensorFlow は、Google がオープンソース化した人気のディープラーニング フレームワークです。 TensorFlow では、ニューラル ネットワークは、畳み込み、行列乗算、または各レイヤーの要素を変換するその他の操作など、一連の関連する操作で構成されるグラフとして定義されます。トレーニング プロセス中にネットワーク層内のパラメーターは変化しますが、ネットワーク構造は変化しません。 一般的なワークフローでは、開発者は Python で TensorFlow API 呼び出しを行って計算グラフを定義します。Python 呼び出しにより、ニューラル ネットワークを完全に定義するグラフ データ構造が作成されます。開発者は、明確に定義されたグラフ構造を使用して、トレーニングまたは推論の手順を記述できます。 TLT-転移学習ツールキット 新しいニューラル ネットワークを定義するだけでなく、他の開発者や研究者によってすでに定義されトレーニングされた既存のネットワークを再利用することも簡単です。これらのいわゆる事前トレーニング済みネットワークは、そのまま新しいタスクに再利用することができ、このプロセスは転移学習と呼ばれます。 転移学習の場合、開発者は保存されたファイルから事前トレーニング済みのパラメータを読み込み、新しいデータセットを使用してトレーニング プロセスを実行します。この手法では、ネットワークを最初からトレーニングするよりもトレーニング サンプルが少ないため、通常は精度が高くなります。 NVIDIA の NVIDIA Transfer Learning Toolkit (TLT) は、「AI フレームワークの専門知識がなくても、インテリジェントなビデオ分析とコンピューター ビジョンのための正確で効率的な AI モデルを作成できます。コーディングなしでプロのように開発できます。」と主張しています。 Transfer Learning Toolkit (TLT) は、専用の事前トレーニング済み AI モデルを取得し、独自のデータでカスタマイズするための Python ベースの AI ツールキットです。転移学習は、既存のニューラル ネットワークから学習した特徴を新しいニューラル ネットワークに抽出します。転移学習は、大規模なトレーニング データセットを作成することが不可能な場合によく使用されます。スマート ビジョン AI アプリケーションとサービスを構築する開発者、研究者、ソフトウェア パートナーは、独自のデータを使用して、最初からトレーニングすることなく、事前トレーニング済みのモデルを微調整できます。 NVIDIA は、特定のユースケース (建物の占有状況分析、交通監視、駐車場管理、ナンバープレート認識、異常検出など) 向けに事前トレーニング済みのモデルを用意しており、開発者がモデルをゼロから作成して最適化するという時間のかかるプロセスを回避し、エンジニアリング作業を 80 週間から約 8 週間に短縮して、より短い時間でより高いスループットと精度を実現できます。 DeepStreamを使用してビジョン AI アプリケーションを展開することで、より高いストリーミング密度を実現し、大規模に展開できます。 事前トレーニング済みのモデルは AI トレーニング プロセスを加速し、大規模なデータ収集、ラベル付け、およびモデルを最初からトレーニングすることに関連するコストを削減します。 NVIDIA の専用に構築された事前トレーニング済みモデルは、製品品質を備えており、人数カウント、車両検出、交通最適化、駐車場管理、倉庫運営など、さまざまなユースケースで使用できます。 TRT-テンソルRT ネットワークが完成すると、モデルを展開するのは簡単です。ただし、モデルが tensorRT を使用して最適化されている場合は、通常、パフォーマンス上の大きな利点が得られます。 TensorRT は NVIDIA によって提供されており、ニューラル ネットワーク推論を最適化するアクセラレータです。 TensorFlow や他のフレームワークとは異なり、TensorRT はディープラーニング モデルのトレーニングには使用されません。代わりに、トレーニングが完了すると、TensorRT はモデルを展開用に最適化します。変換プロセスでは、高度に最適化された GPU 操作を活用するためにモデルが再構築されるため、レイテンシが短縮され、スループットが向上します。 このビデオでは、TensorRTを使用してモデルをデプロイする方法を学ぶことができます。 DS-ディープストリーム ディープラーニングは、世界中のビデオ分析アプリケーションの成長の原動力であり、開発者はコンピューター ビジョン ベースのアプリケーションでディープラーニングをますます使用しています。 2020 年までに世界中で 10 億台のカメラが稼働すると予想されており、これは信じられないほどの量の生のセンサー データです。このデータを使用して、人々、社会グループ、企業は、カメラとストリーミング分析を使用して、空港での入国管理管理、製造センターや工場での生産ライン管理、駐車場管理、乗客の流れ分析アプリケーションなど、スマート シティの構築に重要な機能を実行する強力なアプリケーションを構築しています。小売分析は、店舗が顧客が何を購入したいかを理解するために役立つ、もう 1 つの重要なユース ケースです。また、より包括的な洞察を提供するためにビデオ分析の使用を必要とする他の業界アプリケーションもあります。 NVIDIA Deepstream SDK は、さまざまなセンサーから独自のアプリケーションを構築できる汎用ストリーミング分析フレームワークです。これは実際には、オープンソースのマルチメディア分析フレームワークである GStreamer 上に構築された SDK です。 NVIDIA は、ストリーミング ビデオ分析に必要なフル スタックを高速化するように設計された SDK として Deepstream を提供しています。これは、開発者がインテリジェント ビデオ分析 (IVA) 用の効率的なパイプラインを構築できるようにするモジュール式 SDK です。ここで示されているのは、Deepstream プラグインによって構築された典型的な IVA パイプラインです。このパイプラインは、プラグインによって使用される基盤となるハードウェアとパイプラインの各機能をサポートし、ハードウェア アーキテクチャを活用してメモリ コピーなしでデータを移動します。 |
<<: 顔認識は壊れているのでしょうか?心配しないでください。「フェイスプロテクションプラン」が始まります
サイバー犯罪者の目から見れば、クレジットカード会社は間違いなく最も重要な攻撃ターゲットの一つです。彼...
研究者らは、敵対的サンプルと呼ばれる入力を各ビデオフレームに挿入することで、検出器を破ることができる...
人工知能は現代のビジネス界に多くの変化をもたらしています。多くの企業が AI を活用して顧客をより深...
今日の人気のディープラーニング モデルはブラック ボックスであるとよく言われます。つまり、入力を与え...
人工知能業界では、今年多くの出来事がありましたが、その中には慎重に検討する価値のあるものもありました...
科学者たちは、人間が常に人型ロボットに対して不可解な恐怖を抱いているという不可解な現象を発見した。 ...
スターヒューマノイドロボット企業フィギュアがハイライトの瞬間を迎えました!先ほど、OpenAIとFi...
偉大な将軍の名声の裏には、数え切れないほどの兵士たちの援助がある。この声明は自動運転の分野にも当ては...
デジタル変革の結果、テクノロジーは長年にわたってどのように変化してきましたか?アクセンチュアが第 2...
大規模言語モデル (LLM) の進歩により、AI エージェント (特に LLM エージェント) の活...
予測分析モデルが改良されるにつれ、この分野のイノベーターたちは、これまで断片化されていて使用コストが...
AI は、従来のプロセスや従来のテクノロジーにまき散らされた魔法の精霊ではなく、ビジネスのやり方を根...
この記事はWeChatの公開アカウント「Product Second Sister」から転載したもの...