Pytorch の最も重要な 9 つの操作! ! !

Pytorch の最も重要な 9 つの操作! ! !

今日は、pytorch についてお話します。今日は、9 つ​​の最も重要な pytorch 操作をまとめました。これにより、全体的な概念が確実に理解できるようになります。

テンソルの作成と基本操作

PyTorch テンソルは NumPy 配列に似ていますが、GPU アクセラレーションと自動微分化を提供します。テンソルは、torch.tensor を通じて、または torch.zeros や torch.ones などの関数を使用して作成できます。

 import torch # 创建张量a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # 张量加法c = a + b print(c)

オートグラッド

torch.autograd モジュールは自動微分化のメカニズムを提供し、操作を記録し、勾配を計算できるようにします。

 x = torch.tensor([1.0], requires_grad=True) y = x**2 y.backward() print(x.grad)

ニューラルネットワーク層 (nn.Module)

torch.nn.Module は、ニューラル ネットワークを構築するための基本コンポーネントです。線形層 (nn.Linear)、畳み込み層 (nn.Conv2d) など、さまざまな層を含めることができます。

 import torch.nn as nn class SimpleNN(nn.Module): def __init__(self): super(SimpleNN, self).__init__() self.fc = nn.Linear(10, 5) def forward(self, x): return self.fc(x) model = SimpleNN()

オプティマイザ

オプティマイザーは、損失関数を最小化するためにモデル パラメータを調整するために使用されます。以下は、確率的勾配降下法 (SGD) オプティマイザーを使用した例です。

 import torch.optim as optim optimizer = optim.SGD(model.parameters(), lr=0.01)

損失関数

損失関数は、モデル出力とターゲット間のギャップを測定するために使用されます。たとえば、クロスエントロピー損失は分類問題に適しています。

 loss_function = nn.CrossEntropyLoss()

データの読み込みと前処理

PyTorch の torch.utils.data モジュールは、データの読み込みと前処理のための Dataset クラスと DataLoader クラスを提供します。データセット クラスは、さまざまなデータ形式やタスクに合わせてカスタマイズできます。

 from torch.utils.data import DataLoader, Dataset class CustomDataset(Dataset): # 实现数据集的初始化和__getitem__方法dataloader = DataLoader(dataset, batch_size=64, shuffle=True)

モデルの保存と読み込み

torch.save を使用してモデルの状態辞書を保存し、torch.load を使用してモデルを読み込むことができます。

 # 保存模型torch.save(model.state_dict(), 'model.pth') # 加载模型loaded_model = SimpleNN() loaded_model.load_state_dict(torch.load('model.pth'))

学習率調整

torch.optim.lr_scheduler モジュールは、学習率のスケジューリングのためのツールを提供します。たとえば、StepLR を使用して、各エポックの後に学習率を下げることができます。

 from torch.optim import lr_scheduler scheduler = lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)

モデル評価

モデルのトレーニングが完了したら、モデルのパフォーマンスを評価する必要があります。評価するときは、モデルを評価モード (model.eval()) に切り替え、torch.no_grad() コンテキスト マネージャーを使用して勾配計算を回避する必要があります。

 model.eval() with torch.no_grad(): # 运行模型并计算性能指标

<<:  超強力なPytorchオペレーション! ! !

>>:  GitHub の年末特典: プログラミング チャットボットがすべてのユーザーに公開され、ネットユーザーはこれをゲームチェンジャーと呼ぶ

ブログ    
ブログ    

推薦する

中国がAI技術の輸出を制限! TikTokアルゴリズムの名前が挙がり、売却または制限される

[[339978]]米国のTikTok狩りは続く。 8月27日、ByteDanceがTikTokの北...

グラフ機械学習の特徴伝播を用いた欠損データの再構築

この論文で紹介されている特徴伝播​​は、グラフ機械学習アプリケーションで欠落している特徴を処理するた...

フィンテックとAI: 金融におけるAIの活用方法

フィンテックの人工知能と機械学習技術は、大規模なデータセットをリアルタイムで分析し、改善を図るのに役...

第6回ドルイドチャイナミートアップがKuaishou本部で開催されました

3月16日、KuaishouとTestin Cloud Testingが共同で主催するApache ...

AIチップの過去と未来、この記事を読んでください

[[248236]]皆さんは、イ・セドルと柯潔を破った Google の「Alpha Go」をまだ覚...

多様性がAI戦略の成功の鍵となる理由

機械学習と人工知能に関しては、スキャンダルが後を絶ちません。過去数ヶ月、マイクロソフトのジャーナリス...

AI戦略について尋ねるべき10の質問

近年、AI テクノロジーに投資している企業の大多数は、一般的に、AI アプリケーションを業務改善やコ...

...

資本から絶大な支持を受ける人工知能が、なぜ金融分野で壁にぶつかっているのか。

マーフィー著昨年のAlphaGo、今年のLibratusと、さまざまな業界で「人工知能」のトレンドが...

清華大学チームは、蛍光画像から自己教師あり方式でノイズを除去する空間冗長性ノイズ除去トランスフォーマー法を開発

高い信号対雑音比を備えた蛍光イメージングは​​、生物学的現象の正確な可視化と分析の基礎となっています...

ザッカーバーグの45分間の詳細なインタビュー:今後10年間のVRと脳コンピューターインターフェースへの野望を明らかにする

[[386531]]誰もそこに頭を突っ込みたくないよ!ザッカーバーグ氏は脳コンピューターインターフェ...

機械学習論文を再現する際に注意すべき5つの問題

私が初めて機械学習に興味を持ったとき、論文を読んだり、それを実装したりすることに多くの時間を費やしま...

...

...

ドローンは何に使えるのでしょうか?これらの使い方は本当に素晴らしいです!

ドローンは最近ますます人気が高まっています。高解像度カメラ付きの機械を数百ドルで購入することもできま...