データセットと DataLoader を使用して PyTorch でデータをカスタマイズする

データセットと DataLoader を使用して PyTorch でデータをカスタマイズする

大規模なデータセットを扱う場合、データ全体を一度にメモリにロードすることが非常に困難になることがあります。

したがって、唯一の方法は、処理のためにデータをバッチでメモリにロードすることであり、これを行うには追加のコードを記述する必要があります。この目的のために、PyTorch はすでに Dataloader 関数を提供しています。

データローダー

PyTorch ライブラリの DataLoader 関数の構文とそのパラメータ情報を以下に示します。

  1. DataLoader(データセット、batch_size=1、shuffle= False 、sampler=None、
  2. batch_sampler=なし、num_workers=0、collat​​e_fn=なし、
  3. pin_memory= False 、drop_last= False 、タイムアウト=0、
  4. worker_init_fn=なし、*、prefetch_factor=2、
  5. persistent_workers = False )

いくつかの重要なパラメータ

  • データセット: まずデータセットを使用して DataLoader クラスを構築する必要があります。
  • シャッフル: データを再編成するかどうか。
  • Sampler : オプションの torch.utils.data.Sampler クラス インスタンスを参照します。サンプラーは、サンプルを順番に、ランダムに、またはその他の方法で取得するための戦略を定義します。サンプラーを使用する場合は、シャッフルを false に設定する必要があります。
  • Batch_Sampler: バッチレベル。
  • num_workers: データをロードするために必要な子プロセスの数。
  • collat​​e_fn : サンプルをバッチにまとめます。 Torch ではカスタム照合が可能です。

組み込みのMNISTデータセットをロードする

MNIST は手書きの数字を含む有名なデータセットです。 DataLoader 機能を使用して PyTorch の組み込み MNIST データセットを処理する方法を説明します。

  1. 輸入トーチ
  2. matplotlib.pyplot をpltとしてインポートします。
  3. torchvisionからデータセットをインポートし、変換する

上記のコードは、torchvision の torch コンピュータ ビジョン モジュールをインポートします。これは画像データセットを操作するときによく使用され、画像の正規化、サイズ変更、切り抜きに役立ちます。

MNIST データセットの場合、次の正規化手法が使用されます。

ToTensor() は、0〜255 のグレースケール範囲を 0〜1 に変換できます。

  1. 変換 = transforms.Compose([transforms.ToTensor()])

必要なデータセットを読み込むには、次のコードを使用します。 PyTorchDataLoader を使用して、batch_size = 64 を指定してデータをロードします。 shuffle=True はデータをシャッフルします。

  1. trainset = datasets.MNIST( '~/.pytorch/MNIST_data/' 、 download= True 、 train= True 、 transform=transform)
  2. トレインローダー = torch.utils.data.DataLoader(トレインセット、バッチサイズ = 64、シャッフル = True )

データセット内のすべての画像を取得するには、通常、iter 関数とデータ ローダー DataLoader を使用します。

  1. dataiter = iter(trainloader)
  2. 画像、ラベル = dataiter.next ()
  3. 印刷(images.shape)
  4. 印刷(ラベル.形状)
  5. plt.imshow(images[1].numpy().squeeze(), cmap= 'Greys_r' )

カスタムデータセット

次のコードは、1000 個の乱数を含むカスタム データセットを作成します。

  1. torch.utils.dataからデータセットをインポート
  2. ランダムにインポート
  3.   
  4. クラスSampleDataset(データセット):
  5. __init__(self,r1,r2)を定義します。
  6. ランダムリスト=[]
  7. iが範囲(120)内にある場合:
  8. n = ランダム.randint(r1,r2)
  9. ランダムリストに追加(n)
  10. self.samples = ランダムリスト
  11.   
  12. __len__(自分)を定義します:
  13. len(self.samples)を返す
  14.   
  15. __getitem__(self, idx)を定義します。
  16. 戻り値(self.samples[idx])
  17.   
  18. データセット=サンプルデータセット(1,100)
  19. データセット[100:120]

ここに画像の説明を挿入

最後に、カスタム データセットでデータローダー関数を使用します。 batch_size は 12 に設定され、num_workers = 2 で並列マルチプロセス データ ロードも有効になります。

  1. torch.utils.dataからDataLoader をインポートします
  2. ローダー = DataLoader(データセット、バッチサイズ=12、シャッフル= True 、num_workers=2)
  3. iの場合 enumerate(loader)バッチ処理します。
  4. print(i, バッチ)

以下では、いくつかの例を通して、大量のデータをバッチでメモリにロードする際の PyTorch Dataloader の役割について学習します。

<<:  再帰アルゴリズム: 不可解なスイッチ「ライトを引く」

>>:  Go データ構造とアルゴリズムの基本クイックソート

ブログ    

推薦する

...

Caffeine ソースコード解釈 - キャッシュ有効期限の削除に関連するアルゴリズム

[[410588]]この記事はWeChatの公開アカウント「Muscular Coder」から転載し...

...

製薬業界を覆すAIは「仕掛け」か「希望」か?

人工知能 (AI) は、過去 10 年ほどの間に SF の世界から現実の世界へと移行し、地球上のほぼ...

...

...

人工ニューラルネットワークとBPアルゴリズムについての簡単な説明

[[338555]] 【51CTO.comオリジナル記事】 1 はじめに現在、機械学習技術とも呼ばれ...

...

...

ハルビン工業大学人工知能研究所が設立され、4つのレベルと7つの方向でAIの発展をリードしています

5月5日、ハルビン工業大学(HIT)人工知能研究所の除幕式と「知能・未来創造」ハイエンド人工知能フォ...

...

...

Python のアンサンブル学習とランダム フォレスト アルゴリズムを 10 分でマスターする

導入機械学習モデルは、複数の業界にわたる意思決定プロセスの不可欠な要素となっていますが、ノイズの多い...

最新の出来事を常に把握しましょう! Soraモデルテキスト生成ビデオをサポートするWebクライアント

みなさんこんにちは。JavaプログラマーのChenです。最近、Open AIが再び人気を集めており、...

あなたの写真を「秘密裏に」使用した顔認識システムはいくつありますか?ツールを使って確認する時が来た

テクノロジー企業が「個人のプライバシーを侵害する」顔認識システムを開発する際、彼らはあなたが予想して...