GPT時代の学習アルゴリズム、線形モデルを実装するPytorchフレームワーク

GPT時代の学習アルゴリズム、線形モデルを実装するPytorchフレームワーク

今日は線形回帰モデルの実装を続けます。ただし、今回はすべての関数を自分で実装するのではなく、Pytorch フレームワークを使用して実装を完了します。

コード全体はどの程度変更されますか?

1 つ目はデータ生成部分で、前の部分と似ています。

 import numpy as np import torch from torch.utils import data from d2l import torch as d2l
 true_w = torch.tensor([2, -3.4]) true_b = 4.2 features, labels = d2l.synthetic_data(true_w, true_b, 1000)

しかし、データの読み取りから始めると、状況は変わります。

前のコードでは、イテレータを独自に実装し、トレーニング データからランダムにデータを抽出しました。ただし、置換なしのサンプリング設計は使用せず、データシャッフル操作も実行しませんでした。

ただし、Pytorch フレームワークにはこれらのコンテンツ用の既成ツールが用意されているため、自分で実装する必要はありません。

ここでは、TensorDataset と DataLoader の 2 つのクラスが必要です。

 def load_array(data_arrays, batch_size, is_train=True): #@save """构造一个PyTorch数据迭代器""" dataset = data.TensorDataset(*data_arrays) return data.DataLoader(dataset, batch_size, shuffle=is_train)

これら 2 つのクラスの使用方法については、ChatGPT に直接問い合わせることができます。

写真

つまり、TensorDataset はテンソル データをカプセル化するために使用され、その主な機能は DataLoader と連携することです。

写真

DataLoader は、基本的なデータ読み取りに加えて、ランダム順序、サンプリング、マルチスレッド読み取りなどの機能も提供するイテレータです。

トレーニング データの反復子を取得するには、load_array を呼び出します。

 batch_size = 10 data_iter = load_array((features, labels), batch_size)

モデルパーツ

前回の実装では、線形回帰モデルのパラメータとして 2 つのテンソルを独自に作成しました。

しかし、そんなに面倒なことはする必要はありません。線形回帰は単層ニューラルネットワークとみなすことができます。原理と効果の点ではまったく同じです。したがって、対応する API を呼び出すことでモデルを簡単に実装できます。

 from torch import nn net = nn.Sequential(nn.Linear(2, 1))

ここで、nn はニューラル ネットワークの略です。nn.Linear(2, 1) は、入力次元が 2、出力次元が 1 の単層線形ネットワークを定義します。これは線形モデルと同等です。

nn.Sequential モジュール コンテナー。複数の入力ネットワーク構造を順番に完全なモデルに組み立てることができます。これはモデルを構築するための非常に一般的で便利な方法です。この方法に加えて、モデルを作成する他の方法もありますが、それらについては後で詳しく説明します。

写真

一般的に、モデルを作成した後は特に初期化する必要はありませんが、モデルのパラメータを調整する場合は、weight.data と weight.bias を使用してパラメータにアクセスできます。

 net[0].weight.data.normal_(0, 0.01) net[0].bias.data.fill_(0)

次に、損失関数を定義しましょう。Pytorch は損失関数の実装もカプセル化しているので、直接呼び出すことができます。

 loss = nn.MSELoss()

nn.MSELoss は平均二乗誤差であり、MSE は平均二乗誤差の略語です。

最後に、最適化アルゴリズムです。Pytorch は、モデル内のパラメータを更新する方法もカプセル化しています。モデルを更新するために、テンソルの勾配を手動で使用する必要はありません。最適化方法を定義し、自動的に作業を実行させるだけです。

 optim = torch.optim.SGD(net.parameters(), lr=0.03)

電車

最後のステップは、上記のすべての実装を連続して接続するモデルをトレーニングすることです。

プロセス全体に必要なコードはほんの数行だけです。

 num_epochs = 3 for epoch in range(num_epochs): for X, y in data_iter: l = loss(net(X) ,y) optim.zero_grad() l.backward() optim.step() l = loss(net(features), labels) print(f'epoch {epoch + 1}, loss {l:f}')

以前実装したモデルパラメータ更新部分は、optim.step() の行に置き換えられました。

モデルがどんなに複雑であっても、optim.step() を使用してパラメータを更新できるので、非常に便利です。

トレーニング後のモデルのパラメータ値も確認でき、これも設定に非常に近い値になっています。

写真

この時点で、線形回帰モデル全体の実装が完了します。

このモデルはすべてのモデルの中で最もシンプルで、そのシンプルさゆえに初心者に最適です。後で、より複雑なモデルに触れると、コードはより複雑になっているにもかかわらず、現在のフレームワークに従っていることがわかります。

<<: 

>>:  テクノロジー統合によるバーチャルキャラクターの創造と実践

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

Google の内部対立が激化!従業員が共同書簡に署名:AIマスターのジェフ・ディーン氏は謝罪すべき!

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

ここでは、あなたが歩むかもしれない未来の世界を描いた、自動運転に関する 73 の特徴を紹介します。

自動運転車の登場は私たちの生活のあらゆる側面に影響を与え、変化をもたらすでしょう。未来はどうなるの...

2021 年の優れた 5 つの人工知能フレームワーク

この記事では、上位 5 つのフレームワークとライブラリを実際のアプリケーションとともに紹介したいと思...

AIがピークを迎える中、CIOはクラウドコンピューティングのコスト戦略を強化

AIがピークを迎える中、CIOはクラウドコンピューティングのコスト戦略を強化クラウド コンピューティ...

これはナレッジグラフ技術の応用に関するわかりやすいガイドです

[51CTO.com からのオリジナル記事] オブジェクト指向の時代では、すべてがオブジェクトである...

...

...

...

2019 年の NLP における最先端のブレークスルーを振り返る

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

張晨成: 第四パラダイムインテリジェントリスク管理ミドルプラットフォームアーキテクチャ設計と応用

共有は主に次の 5 つのポイントを中心に行われます。リスク管理センターの設計背景戦略のフルサイクル管...

未来 | 人工知能が人間社会を変える24の方法

今こそ、AI の将来を本当に理解するときです。 AI を取り巻く不安は雇用の減少など多岐にわたります...

ビッグデータ分析と人工知能:技術コンテンツの価値分析

[[265480]]テクノロジーの継続的な発展に伴い、テクノロジーの種類はますます増えています。人々...

...

超音波脳読み取りはマスクの脳コンピューターインターフェースよりも正確で侵襲性が低い

脳コンピューターインターフェース分野で新たなニュースがあります。 IEEE Spectrum による...

...