過去 1 年間、私は仕事時間のほとんどをディープラーニングの研究とインターンシップに費やしてきました。その年、私は多くの大きなミスを犯しましたが、それによって ML だけでなく、これらのシステムを正しく堅牢に設計する方法も理解することができました。 Google Brain で私が学んだ主な原則の 1 つは、ユニット テストによってアルゴリズムが成功するか失敗するかが決まり、デバッグとトレーニングに要する数週間の時間を節約できるということです。 [[285889]] しかし、ニューラル ネットワーク コードの単体テストの書き方に関するしっかりしたオンライン チュートリアルは存在しないようです。 OpenAI のような場所でも、コードのすべての行をじっくりと見て、なぜバグが発生するのかを考えるだけで、バグを見つけることができます。明らかに、ほとんどの人にはそんな時間はありません。ですから、このチュートリアルが、システムの健全なテストを始めるのに役立つことを願っています。 簡単な例から始めましょう。このコード内のエラーを見つけてみてください。 - def make_convnet(入力画像):
- ネット= slim.conv2d (入力画像、32、[11、11]、スコープ= "conv1_11x11" )
- ネット=スリム.conv2d(input_image, 64, [5, 5],スコープ= "conv2_5x5" )
- ネット=スリム.max_pool2d(ネット、[4, 4]、ストライド= 4 、スコープ= 'pool1' )
- ネット= slim.conv2d (入力画像、64、[5、5]、スコープ= "conv3_5x5" )
- ネット= slim.conv2d (入力画像、128、[3、3]、スコープ= "conv4_3x3" )
- ネット=スリム.max_pool2d(ネット、[2, 2]、スコープ= 'pool2' )
- ネット= slim.conv2d (入力画像、128、[3、3]、スコープ= "conv5_3x3" )
- ネット=スリム.max_pool2d(ネット、[2, 2]、スコープ= 'pool3' )
- ネット= slim.conv2d (入力画像、32、[1、1]、スコープ= "conv6_1x1" )
- リターンネット
見ましたか? ネットワークは実際には機能していませんでした。このコードを書くとき、slim.conv2d(...) 行をコピーして貼り付け、実際の入力を変更せずにカーネル サイズのみを変更しました。 恥ずかしながら、これは 1 週間前に私に起こったことです... しかし、これは重要な教訓です。 これらのバグは、いくつかの理由から見つけるのが困難です。 - このコードはクラッシュせず、エラーも発生せず、速度も低下しません。
- ネットワークはまだ機能しており、損失は減少し続けています。
- 数時間後には値は収束しますが、結果が非常に悪いため、何を修正する必要があるのか頭を悩ませることになるでしょう。
唯一のフィードバックが最終的な検証エラーである場合、検索する必要があるのはネットワーク アーキテクチャ全体だけです。言うまでもなく、より良いシステムが必要です。 では、複数日にわたるトレーニングを実行する前に、これを実際にどのように活用すればよいのでしょうか。これについて最も簡単に気付くのは、レイヤーの値が関数の外部にある他のテンソルに実際には到達しないということです。何らかのタイプの損失とオプティマイザーがあると仮定すると、これらのテンソルは最適化されることはなく、常にデフォルト値を持ちます。 簡単なトレーニング手順と前後の比較で検出できます。 - test_convnet() を定義します:
- 画像= tf.placeholder (tf.float32, (なし, 100, 100, 3)
- model =モデル(画像)
- sess = tf .セッション()
- sess.run(tf.global_variables_initializer())
- before = sess .run(tf.trainable_variables())
- _ = sess.run (model.train、 feed_dict = {
- 画像: np.ones((1, 100, 100, 3)),
- })
- after = sess .run(tf.trainable_variables())
- zip 内の b、a、n の場合(前、後):
- # 何か変更があったか確認してください。
- アサート (b != a).any()
15 行未満のコードで、少なくとも作成したすべての変数がトレーニングされることが確認できました。 このテストは非常に簡単で非常に便利です。以前の問題を修正したと仮定すると、バッチ正規化の追加を開始できます。バグを見つけられるかどうか確認してください。 - def make_convnet(image_input):
- # 畳み込みを行う前に入力を正規化してみる
- ネット= slim.batch_norm (画像入力)
- ネット= slim.conv2d (ネット、32、[11、11]、スコープ= "conv1_11x11" )
- ネット=スリム.conv2d(ネット, 64, [5, 5],スコープ= "conv2_5x5" )
- ネット=スリム.max_pool2d(ネット、[4, 4]、ストライド= 4 、スコープ= 'pool1' )
- ネット=スリム.conv2d(ネット, 64, [5, 5],スコープ= "conv3_5x5" )
- ネット=スリム.conv2d(ネット, 128, [3, 3],スコープ= "conv4_3x3" )
- ネット=スリム.max_pool2d(ネット、[2, 2]、スコープ= 'pool2' )
- ネット= slim.conv2d (ネット、128、[3、3]、スコープ= "conv5_3x3" )
- ネット=スリム.max_pool2d(ネット、[2, 2]、スコープ= 'pool3' )
- ネット= slim.conv2d (ネット、32、[1、1]、スコープ= "conv6_1x1" )
- リターンネット
見ましたか?これは非常に微妙です。 tensorflow batch_norm では is_training のデフォルト値が False になっているため、このコード行を追加してもトレーニング中に入力が正規化されないことがわかります。ありがたいことに、最後に書いた単体テストでこの問題はすぐに検出されます。(3 日前に私に起こったことなので、私は知っています。) 別の例を見てみましょう。これは先日読んだ記事から来ています (https://www.reddit.com/r/MachineLearning/comments/6qyvvg/p_tensorflow_response_is_making_no_sense/)。あまり詳しく説明しませんが、基本的にこの人は (0,1) の範囲の値を出力する分類器を作成したいと考えています。 - クラスモデル:
- def __init__(自己、入力、ラベル):
- 「分類器モデル」
- 引数:
- input: サイズの入力テンソル (None, input_dims)
- label: サイズのラベルテンソル (なし、1)。
- tf.int32 型である必要があります。
- 「」
- 予測= self.make_network (入力)
- # 予測サイズは (なし、1) です。
- 自己損失= tf.nn.softmax_cross_entropy_with_logits (
- logits =予測、 labels labels = ラベル)
- self.train_op = tf .train.AdamOptimizer().minimize(self.loss)
この間違いに気づきましたか? これを事前に見つけるのは非常に難しく、非常に混乱した結果につながる可能性があります。基本的に、ここで起こっていることは、予測には出力が 1 つだけあり、それにソフトマックス クロス エントロピーを適用すると、その損失は常に 0 になるということです。 これをテストする簡単な方法は、損失が 0 でないことを確認することです。 - テスト損失()を定義します:
- in_tensor = tf .placeholder(tf.float32, (なし、3))
- ラベル= tf .placeholder(tf.int32, None, 1))
- model =モデル(in_tensor, ラベル)
- sess = tf .セッション()
- 損失= sess.run (model.loss, feed_dict = {
- in_tensor:np.ones(1, 3)、
- ラベル:[[1]]
- })
- 損失が 0 ではないと主張
もう 1 つの優れたテストは、最初のテストと似ていますが、逆の順序です。トレーニングしたい変数だけがトレーニングされるようにすることができます。 GAN を例に挙げてみましょう。よくある間違いは、最適化を行う際にトレーニングする変数を誤って設定し忘れてしまうことです。このようなコードは頻繁に発生します。 - クラスGAN:
- def __init__(self, z_vector, true_images):
- # これらが実装されていると仮定します。
- tf.variable_scope("gen") を使用する場合:
- 自己ジェネレーターの作成(z_vector)
- tf.variable_scope("des") の場合:
- 自己.make_descriminator(true_images)
- opt = tf .AdamOptimizer()
- train_descrim = opt .minimize(self.descrim_loss)
- train_gen = opt .minimize(self.gen_loss)
ここでの最大の問題は、オプティマイザーがすべての変数を最適化するというデフォルト設定を持っていることです。 GAN のような高度なアーキテクチャでは、これはすべてのトレーニング時間の死刑宣告に相当します。ただし、次のようなテストを記述することで、これらのエラーを簡単に検出できます。 - test_gen_training() を定義します:
- モデル=モデル
- sess = tf .セッション()
- gen_vars = tf .get_collection(tf.GraphKeys.VARIABLES、スコープ= 'gen' )
- des_vars = tf .get_collection(tf.GraphKeys.VARIABLES、スコープ= 'des' )
- before_gen = sess.run (gen_vars)
- before_des = sess .run(des_vars)
- # ジェネレータをトレーニングします。
- セッションを実行します(model.train_gen)
- after_gen = sess.run (gen_vars)
- after_des = sess .run(des_vars)
- # ジェネレータ変数が変更されたことを確認します。
- zip(before_gen, after_gen)内のb、aの場合:
- アサート (a != b).any()
- # 識別子が変更されていないことを確認してください。
- zip(before_des, after_des)内のb、aの場合:
- アサート ( a == b ).all()
非常によく似たテストを識別子に対しても記述できます。同じテストを多くの強化学習アルゴリズムに適用できます。多くのアクター・クリティック・モデルには、さまざまな損失に基づいて最適化する必要がある個別のネットワークがあります。 テストすることをお勧めするパターンをいくつか紹介します。 - テストを決定論的にします。テストが奇妙な形で失敗し、バグを再現できない場合は最悪です。本当にランダムな入力が必要な場合は、テストを簡単に再実行できるように、シードされた乱数を使用してください。
- テストは短くしてください。収束をトレーニングし、検証セットをチェックするためにユニット テストを使用しないでください。そんなことをして時間を無駄にしていることになります。
- 各テスト間で計算グラフを必ずリセットしてください。
まとめると、これらのブラックボックス アルゴリズムをテストする方法はまだたくさんあります。1 時間かけてテストを作成すると、トレーニング済みのモデルを再実行する時間が節約され、研究の効率が大幅に向上します。実装に欠陥があるために完璧さというアイデアを諦めなければならないのは残念ではないでしょうか? このリストは明らかに包括的なものではありませんが、確かなスタートとなります。 |