PaddlePaddleは今年8月、端末やエッジデバイス向けのエッジ推論エンジン「Paddle Lite」のベータ版をリリースした。 約 2 か月の反復と開発を経て、Paddle Lite 2.0 の正式バージョンが 2019 Wave Summit+ Deep Learning Developer Summit でリリースされました。 Paddle Lite Githubリンク: https://github.com/PaddlePaddle/Paddle-Lite Paddle Lite は、開発者があらゆるエンドサイド デバイスにアプリケーションを展開できるように、完全で使いやすく、高性能なエンドサイド推論エンジンを提供することに取り組んでいます。 初期のベータ版と比較して、正式版ではコンパイル、ドキュメント、パフォーマンス、ハードウェア サポート、プラットフォーム サポートなどが大幅に改善されています。 PaddlePaddle チームは、今年も引き続きいくつかのマイナー バージョン アップグレードを推進していくことも明らかにし、開発者がコミュニティに参加してフィードバックを提供してくれることを期待し、歓迎しています。 AI技術の実装において、推論段階は実際の応用に関係し、ユーザーエクスペリエンスに直接関係するため、非常に難しい部分です。 図1: 典型的なエッジAIアプリケーションの展開シナリオ Paddle Lite は、エッジでの高性能で軽量な AI アプリケーションを展開するための Paddle 製品スタックの推論エンジンです。その主な目的は、さまざまなハードウェア プラットフォーム シナリオでトレーニング済みのモデルを迅速に展開し、入力データに基づいて予測推論を実行し、実際のビジネス アプリケーションをサポートするための計算結果を取得することです。 図2: パドルライトの機能的配置 ベータ版がリリースされて以来、Paddle Lite は以下のコア機能がアップグレードされました。
マルチフレームワークのサポートPaddle Lite は PaddlePaddle 形式のモデルだけでなく、Caffe、TensorFlow、ONNX などのサードパーティ形式のモデルもサポートしています。詳細については、X2Paddle を参照してください。 当局は、以下の主流モデルの適応性を検証しました。 上記の主流モデルに加えて、ARM CPU FP32 には次の 3 つの新しいモデルが追加されています。
ARM CPU INT8 量子化予測は、次のモデルをサポートしています。
複数のハードウェアのサポートバージョン v2.0 では、Paddle Lite に 2 つの新しいタイプのハードウェア (Nvidia GPU と X86 CPU) のサポートが追加されました。 Nvidia GPUに関しては、GPUの高性能を最大限に活用するために、Paddle LiteはCUDA関連のソフトウェアスタックを使用して対応するカーネルを開発し、サーバー側ではP4とT4、組み込み側ではJetson TX2、TX1、Nanoなど、複数の種類のNvidia GPUハードウェアをサポートしました。 現在、CUDA GPU は次の 3 つのモデルをサポートしています。
X86 CPU の場合、Paddle Lite は MKL 関連のカーネルを追加します。現在、inception v4、googlenet、resnet50 の 3 つのモデルを効率的に実行できます。対応する演算子は、他のほとんどの CV モデルに共通です。 パフォーマンスの向上ARM CPU (v7、v8) での float32 および int8 計算モードの予測パフォーマンスが向上しました (図 3、図 4 を参照)。詳細については、次のリンクにある最新のベンチマークを参照してください。 https://paddlepaddle.github.io/Paddle-Lite/v2.0.0/ベンチマーク/ 図3 図4 テスト条件: バッチサイズ=1、シングルスレッド より完全な機能①Python APIをサポート Paddle Liteは、ARM Linux関連ハードウェアへの予測展開を簡素化するために、Python APIの予測インターフェースを追加し、現在、Raspberry PiやJetson TX2などのカード上でのアプリケーション検証を行っています。 ②コンパイルプロセスの最適化 Paddle Lite は 2 つのコンパイル モードをサポートしています。
コンパイル面では、Dockerに加えて、Linux(Ubuntu推奨)やMacなどのコンパイルプラットフォームのサポートが追加され、コンパイル(full_publish)中のgitサブモジュールのダウンロードが遅い問題が修正されました。 統合コンパイル スクリプトでは、現在以下がサポートされています。
などのハードウェア プラットフォーム用の予測ライブラリをコンパイルします。 ③ 予測ライブラリの極端な剪定 Paddle Lite は既存のモバイル予測ライブラリをさらに圧縮し、ARM V8 を 1.4M から 1.3M に削減します。さらに、単一のモデルに基づいてカスタマイズされたプルーニング、つまりモデルの必要な演算子のみを含む予測ライブラリを生成する機能もリリースします。その効果は次の図に示されています。 より完全なドキュメントとデモ主に以下の点を含めてドキュメントの内容を改善します。
https://paddlepaddle.github.io/Paddle-Lite/v2.0.0/support_hardware/
https://paddlepaddle.github.io/Paddle-Lite/v2.0.0/library_tailoring/
https://paddlepaddle.github.io/Paddle-Lite/v2.0.0/ベンチマーク/ Paddle Lite の展開機能を実際に実証するために、Paddle Lite は Paddle-Lite-Demo を追加しました。 https://github.com/PaddlePaddle/Paddle-Lite-Demo GitHub 公式 DEMO ライブラリには、現在次のものが含まれています。
分類、検出、その他のモデルの機能デモンストレーションを含むその他のプラットフォーム。 ARM Linux Raspberry Pi を例にとると、Paddle Lite は Raspberry Pi 3B を駆動して認識タスクのためにカメラを呼び出します。全体的な効果は図 6 に示されています。 図6 詳細については、Raspberry Pi 3B を例に、Raspberry Pi カメラの購入、インストール、設定、検証を参照してください。 https://github.com/PaddlePaddle/Paddle-Lite-Demo/blob/master/PaddleLite-armlinux-demo/enable-camera-on-raspberry-pi.md Paddle Lite について詳しく知りたい場合は、以下のリンクを参照してください。 参考リンク:
|
<<: 史上最も包括的な解釈 | PaddlePaddleモデルライブラリが大幅にアップグレードされ、主流のアルゴリズムモデルをすべてカバーしています
スマートホームの人気が高まっていることは間違いありません。テクノロジーに精通した早期導入者から一般の...
現在、特定の NLP タスクのパフォーマンスを最適化するための最善のアプローチは、事前トレーニング済...
2022年2月6日にarXivにアップロードされたレビュー論文「自動運転車の安全性保証、検証、認証:...
Amazon Transcribe は、開発者がアプリケーションに音声テキスト変換機能を簡単に追加で...
テスラは、元エンジニアのアレクサンダー・ヤツコフ氏を提訴した。同氏は、同社内部のスーパーコンピュータ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
現在、人間による自動運転シリーズの進捗状況はどうなっていますか? 最終エピソードが完成するまでにどれ...
マイクロソフトのCEOサティア・ナデラ氏は1月17日(現地時間)の火曜日、人工知能に関して世界中でコ...
[[440972]] 「秋名山には人が少なく、ドライバー同士が競争することが多い。今は自動運転車が...
Isolation Forest または「iForest」は、わずかなパラメータのみで外れ値を検出で...
データの不均衡は機械学習における一般的な課題であり、あるクラスの数が他のクラスを大幅に上回り、偏った...
6 つの一般的なソート アルゴリズムの GIF アニメーションがあり、ソートの考え方をより簡単に理解...
[[425402]] 『原神』で魚が釣れないとまだ悩んでいますか?テイワットでの釣りについての遅れば...
進化する人工知能により、電子商取引分野におけるウェブサイトのアクセシビリティ訴訟のリスクを最小限に抑...