ディープラーニング + OpenCV、Python でリアルタイムのビデオ オブジェクト検出を実現

ディープラーニング + OpenCV、Python でリアルタイムのビデオ オブジェクト検出を実現

OpenCV と Python を使用してライブ ビデオ ストリームでディープラーニング オブジェクト検出を実行するのは非常に簡単です。適切なコードをいくつか作成し、ライブ ビデオを接続して、独自のオブジェクト検出機能を追加するだけです。

この記事では、ディープラーニングと OpenCV を使用して、元のオブジェクト検出プロジェクトを拡張し、アプリケーションの範囲をリアルタイムのビデオ ストリームとビデオ ファイルに拡張する方法を学習します。このタスクは、VideoStream クラスを通じて実行されます。

  • ディープラーニングによる物体検出チュートリアル: http://www.pyimagesearch.com/2017/09/11/object-detection-with-deep-learning-and-opencv/
  • VideoStream クラスのチュートリアル: http://www.pyimagesearch.com/2016/01/04/unifying-picamera-and-cv2-videocapture-into-a-single-class-with-opencv/

それでは、ディープラーニング + オブジェクト検出コードをビデオストリームに適用し、FPS 処理速度を測定します。

ディープラーニングと OpenCV を使用したビデオ オブジェクト検出

OpenCV ディープラーニングに基づくリアルタイム オブジェクト検出器を構築するには、カメラ/ビデオ ストリームに効率的にアクセスし、各フレームにオブジェクト検出を適用する必要があります。

まず、新しいファイルを開いて real_time_object_detection.py という名前を付け、次のコードを追加します。

2行目から8行目まででパッケージのインポートを開始します。その前に、imutils と OpenCV 3.3 が必要です。システム設定では、OpenCV をデフォルト設定でインストールするだけです (また、Python 仮想環境のすべての指示に従っていることを確認してください)。

注意: ディープ ニューラル ネットワーク モジュールが含まれていることを確認するには、OpenCV 3.3 (またはそれ以降) と OpenCV-contrib バージョン (OpenCV 3.3 用) をダウンロードしてインストールしてください。

次に、これらのコマンドライン引数を解析します。

前回のオブジェクト検出プロジェクトと比較すると、ここではビデオ ストリームとビデオを扱っているため、画像パラメータは必要ありません。ただし、次のパラメータは同じままです。

  • --prototxt: Caffe prototxt ファイルのパス。
  • --model: 事前トレーニング済みモデルへのパス。
  • --confidence: 弱い検出をフィルタリングするための最小確率しきい値。デフォルト値は 20% です。

その後、クラス リストとカラー セットを初期化します。

22 行目から 26 行目では、CLASS ラベルと対応するランダムな COLORS を初期化します。これらのクラス(およびネットワークのトレーニング方法)の詳細については、http://www.pyimagesearch.com/2017/09/11/object-detection-with-deep-learning-and-opencv/ を参照してください。

ここで、独自のモデルをロードし、独自のビデオ ストリームを設定します。

独自のシリアル化モデルをロードし、prototxt およびモデル ファイルへの参照を提供します (行 30)。OpenCV 3.3 でわかるように、これは非常に簡単です。

次に、ビデオ ストリームを初期化します (ソースはビデオ ファイルまたはカメラです)。まず、VideoStream を開始し (行 35)、次にカメラの起動を待機し (行 36)、最後に 1 秒あたりのフレーム数の計算を開始します (行 37)。 VideoStream クラスと FPS クラスは、imutils パッケージの一部です。

次に、各フレームをループしてみましょう (速度を重視する場合は、いくつかをスキップできます)。

まず、ビデオ ストリームからフレームを読み取り (行 43)、サイズを変更します (行 44)。幅と高さは後で必要になるので、47 行目で取得します。次に、フレームは dnn モジュールを使用して BLOB に変換されます (行 48)。

ここで、ブロブをニューラル ネットワークへの入力として設定し (行 52)、入力をネットに渡して (行 53)、検出結果を取得します。

この時点で、入力フレーム内のオブジェクトが検出されました。次は、信頼度値を確認して、オブジェクトの周囲に境界ボックスとラベルを描画できるかどうかを判断します。

まず、画像内で複数のオブジェクトが検出できることを念頭に置き、検出をループします。また、各検出の信頼性(つまり確率)も確認する必要があります。信頼度が十分に高い場合(しきい値を超える場合)、画像の予測がテキストと色付きの境界ボックスの形式で端末に表示されます。これを1行ずつ見てみましょう:

  • 検出ループ内では、まず信頼値を抽出します (行 59)。
  • 信頼度が特定のしきい値を超える場合 (行 63)、クラス ラベル インデックスを抽出し (行 67)、検出されたオブジェクトの座標を計算します (行 68)。
  • 次に、境界ボックスの (x, y) 座標を抽出し (行 69)、これを使用して四角形とテキストを描画します。
  • クラス名と信頼度で構成されるテキスト ラベルを作成します (行 72、73)。
  • また、クラスの色と、前に抽出した (x, y) 座標を使用して、オブジェクトの周囲に色付きの四角形を描画します (行 74、75)。
  • 通常、ラベルは長方形の上に表示されますが、スペースがない場合は、ラベルを長方形の上端より少し下に表示します (行 76)。
  • ***、先ほど計算した y 値を使用して、色付きのテキストをフレーム上に配置します (行 77、78)。

フレームキャプチャループの残りのステップは、(1)フレームの表示、(2)終了キーの確認、(3)fpsカウンターの更新です。

上記のコード ブロックは非常に単純で、最初にフレームを表示し (行 81)、次に特定のキーを見つけ (行 82)、さらに「q」キー (「quit」の略) が押されたかどうかを確認します。押された場合は、フレーム キャプチャ ループを終了します (行 85、86)。 ***fps カウンターを更新します (行 89)。

ループを終了する場合(「q」キーまたはビデオ ストリームの終了)、これも処理します。

ループを終了すると、fps カウンターが停止し (行 92)、1 秒あたりのフレーム数が端末に出力されます (行 93、94)。

ウィンドウを閉じて (行 97)、ビデオ ストリームを停止します (行 98)。

ここまで来たら、自分のウェブカメラで試してみて、どのように動作するか確認する準備が整いました。次の部分に進みましょう。

リアルタイムディープラーニングによる物体検出の結果

リアルタイムのディープラーニング オブジェクト検出器を起動して実行するには、このガイドのダウンロード セクションにあるサンプル コードと事前トレーニング済みの畳み込みニューラル ネットワークを使用するようにしてください。 (元のリンクを開いて「ダウンロード」セクションに移動し、メールアドレスを入力して、必要なコードやその他の情報を入手してください。)

ターミナルを開き、次のコマンドを実行します。

OpenCV がウェブカメラにアクセスできる場合は、検出されたオブジェクトを含む出力ビデオ フレームを表示できます。

ディープラーニング オブジェクト検出器が、人物だけでなく、その人物が座っているソファとその隣の椅子もすべてリアルタイムで検出できることに注目してください。

要約する

今日のブログでは、ディープラーニング + OpenCV + ビデオストリーミングを使用してリアルタイムのオブジェクト検出を実行する方法を学びました。私たちはこれを 2 つのチュートリアルで実現しました:

  • ディープラーニングと OpenCV によるオブジェクト検出 (http://www.pyimagesearch.com/2017/09/11/object-detection-with-deep-learning-and-opencv/)
  • OpenCV での効率的なスレッド化されたビデオ ストリーミング (http://www.pyimagesearch.com/2016/01/04/unifying-picamera-and-cv2-videocapture-into-a-single-class-with-opencv/)

最終結果は、6〜8 FPS(もちろんシステム速度によって異なります)でビデオを処理できるディープラーニングベースのオブジェクト検出器です。

以下の方法でさらに速度を上げることができます。

  • フレームをスキップします。
  • MobileNet のさまざまなバリエーションを使用します (高速ですが、精度は低くなります)。
  • SqueezeNet の量子化されたバリアントを使用します (これはテストしていませんが、ネットワーク フットプリントが小さいため、より高速になると思います)。

オリジナル:

http://www.pyimagesearch.com/2017/09/18/real-time-object-detection-with-deep-learning-and-opencv/

[この記事は51CTOコラム「Machine Heart」、WeChatパブリックアカウント「Machine Heart(id:almosthuman2014)」によるオリジナル翻訳です]

この著者の他の記事を読むにはここをクリックしてください

<<:  3Wイノベーションフェスティバル:先進的な起業家のアイデアが古都西安に流入

>>:  ビッグデータは経済生活に影響を与え、AIの基礎となる

ブログ    
ブログ    
ブログ    

推薦する

ハッカーたちは猫娘を作成する代わりに、一流の原子力研究所から何十万ものデータを盗んだ...

米国にある世界トップクラスの原子力研究所の一つが最近、大きな問題に直面している。データベースがハッキ...

エネルギー効率を向上させるために、脳は予測知覚能力を発達させた。

[[436377]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...

プロのアニメーターがGANを使って「怠け者」を助ければ、数週間かかる仕事を数分で終わらせられる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

学者がインテリジェンス、モデルとデータAI、デジタルトランスフォーメーションについて語る。このAIイベントには技術的な内容が含まれている。

2022年、学者たちは人工知能の将来の発展をどのように見ているのでしょうか?将来、AI はモデル駆...

...

ビッグデータはスマートな警察活動の基盤であり、AIは包括的な分析と判断の原動力である

都市化と経済発展の加速に伴い、我が国の社会保障を構成する要素が拡大し、公安機関の警察活動に大きな圧力...

2019年のAIインデックスレポートが発表されました。AI分野では大きな進歩がありましたが、結果はまちまちです。

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

銀行は人工知能を導入し、スマートな顧客サービス以上のものを提供している

[[433578]]最近、ある有名なメディア関係者が銀行からカスタマーサービスに電話を受け、しばらく...

人工知能は200年以上前の進化のパズルをどうやって解くことができるのでしょうか?

人工知能は進化における最も古い謎の 1 つを解くのに役立っていますが、新たな謎ももたらしています。 ...

AIが伝染病と闘う: 時折の恥ずかしさの裏に究極の防壁が現れる

人類と新型コロナウイルスとの戦いは今も続いていますが、この間、さまざまな「人工知能+」アプリケーショ...

AIで製造業を解放する: 企業がアプリケーションシナリオを発見し、課題に対処する方法

まとめ現在、さまざまな業界がデジタルビジネスシナリオを実装または強化するために機械学習機能を構築して...

OpenAI: 大規模ニューラルネットワークをトレーニングするための 4 つの基本手法

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

スマートなモノのインターネットを導入する時が来た

[[427797]]画像ソース: https://pixabay.com/images/id-567...

埋め込みアルゴリズム空間ベクトル角度式とその応用

[[350122]]一部のデバイスは、正しく動作するために適切な方向に設置する必要があります。たとえ...

...