DeepMind Google 研究者の推奨: 拡散モデルの効率と生成品質の向上のヒント

DeepMind Google 研究者の推奨: 拡散モデルの効率と生成品質の向上のヒント

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

画像生成の新しい王様拡散モデルが誕生したのはつい最近のことです。

その理論と実践はどちらもまだ「急速に成長」しています。

NVIDIA の StyleGAN のオリジナル作成者は、拡散モデルの設計に関するヒントやガイドラインを提供しようとしました。その結果、モデルの品質と効率が向上しました。たとえば、既存の ImageNet-64 モデルの FID スコアは 2.07 ポイントから 1.55 ポイントに向上し、SOTA に近づきました。

彼らの仕事の成果はすぐに業界のリーダーたちから認められました。

DeepMind の研究者はこの論文を称賛しました。「この論文は、拡散モデルをトレーニングする人にとって必読の論文であり、間違いなく金鉱です。」

3つの主要な貢献により、モデルの品質と効率が大幅に向上します

StyleGAN の作者による拡散モデルへの 3 つの主要な貢献を次の観点から見ていきます。

一般的なフレームワークを使用して拡散モデルを表現する

この部分では、著者の貢献は主に、モデルの背後にある理論を実用的な観点から観察し、トレーニングとサンプリングの段階で現れる「具体的な」オブジェクトとアルゴリズムに焦点を当て、コンポーネントがどのように相互に接続されているか、およびシステム全体の設計で使用できる自由度をより深く理解することにあります。

要点は次の表です。

この表には、3 つのモデルの特定のバリエーションをフレームワーク内で再現するための式が示されています。

(これら 3 つの方法 (VP、VE、iDDPM+DDIM) は、広く使用されており、SOTA パフォーマンスを実現するだけでなく、異なる理論的根拠に基づいています。)

これらの式では、原則としてコンポーネント間の暗黙的な依存関係は考慮されず、妥当な範囲内で任意の単一の宣言を選択することで機能モデルを導出できます。

ランダムサンプリングと決定論的サンプリングの改善

著者による 2 番目の貢献は、拡散モデルからの合成画像のサンプリング プロセスに関するものです。

彼らは最適な時間離散化を決定し高次ルンゲ・クッタ法をサンプリングプロセスに適用し、3つの事前トレーニング済みモデルに対してさまざまな方法を評価し、サンプリングプロセスにおけるランダム性の有用性を分析しました。

その結果、合成プロセスで必要なサンプリング手順の数が大幅に削減され、改良されたサンプラーは、広く使用されているいくつかの拡散モデルの代替品として使用できます。

まず決定論的サンプリングについて見てみましょう。使用される 3 つのテスト モデルは上記と同じで、異なる理論的フレームワークとモデル ファミリからのものです。

著者らは、まず元のサンプラーを使用してこれらのモデルのベースライン結果実装し、次に表 1 の式を使用してこれらのサンプリング方法を統一されたフレームワークに導入し、改善を加えます。

次に、生成された 50,000 枚の画像と利用可能なすべての実際の画像の間で計算された FID スコアに基づいて品質が評価されます。

ご覧のとおり、元の決定論的サンプラーは青で表示され、これらのメソッドを統合フレームワーク(オレンジ)で再実装すると、同様またはより良い結果が得られます。

著者らは、これらの違いは、元の実装におけるいくつかの見落としと、著者らによる離散ノイズ レベルのより慎重な処理によって生じたものであると説明しています。

決定論的サンプリングには多くの利点がありますが、各ステップで画像に新しいノイズが挿入されるランダム サンプリングよりも品質の低い出力画像が生成されます。

しかし、著者は、ODE (常微分方程式)とSDE (確率微分方程式)が理論的に同じ分布を回復すると仮定した場合、ランダム性の役割は何なのか疑問に思います。

ここで彼らは、既存の高次 ODE 積分器と、ノイズの追加と除去のための明示的な「ランジュバンのような「チャーン」」を組み合わせた新しいランダム サンプラーを提案しています。

最終的なモデルのパフォーマンスは大幅に向上し、サンプラーを改善するだけで、ImageNet-64 モデルの元の FID スコアが 2.07 から 1.55 に増加し、SOTA レベルに近づきました。

前処理とトレーニング

著者の 3 番目の貢献は、スコアモデリングニューラル ネットワークのトレーニングに焦点を当てています

このセクションでは、一般的に使用されるネットワーク アーキテクチャ(DDPM、NCSN)を引き続き使用し、拡散モデル設定におけるネットワークの入力、出力、損失関数の前処理の原理的な分析を通じて、トレーニング ダイナミクスを改善するためのベスト プラクティスを導き出します。

たとえば、σ (ノイズ レベル)に依存するスキップ接続を使用してニューラル ネットワークを事前トレーニングすると、y (信号)または n (ノイズ) 、あるいはその中間の何かを推定できるようになります。

次の表は、モデルのさまざまなトレーニング構成によって取得された FID スコアを具体的に示しています。

著者らは、決定論的サンプラーを使用したベースライントレーニング構成(構成Aと呼ぶ)から始めて、基本的なハイパーパラメータを再調整し(構成B) 、最低解像度のレイヤーを削除して最高解像度のレイヤーの容量を2倍にすることでモデルの表現力を向上させました(構成C)

次に、元の {cin、cout、cnoise、cskip} オプションを前処理(構成 D)に置き換えます。これにより、結果はほぼ同じになりますが、64×64 解像度では VE が大幅に向上します。この前処理方法の主な利点は、FID 自体を改善することではなく、トレーニングをより堅牢にし、悪影響なしに損失関数を再設計することに焦点を移すことです。

VP と VE は、Fθ (構成 E と F) のアーキテクチャのみが異なります

とりわけ、著者らはトレーニング中のノイズレベルの分布を改善することを提案し、 GAN で一般的に使用される手法である非漏洩拡張も拡散モデルにメリットをもたらすことを発見しました。

たとえば、上の表から、条件付きおよび条件なしの CIFAR-10 の最新の FID がそれぞれ 1.79 と 1.97 に達し、以前の記録(1.85 と 2.1046)を破ったことがわかります。

詳細については、原著論文を参照してください。
https://arxiv.org/abs/2206.00364

<<:  米商務省の新規制:承認なしに中国とセキュリティの脆弱性を共有することを禁止、マイクロソフトの異議は無効

>>:  Jitu: 5秒でNeRFをトレーニングしましょう!オープンソース

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

清華大学がJittorをオープンソース化:国内初の大学開発のディープラーニングフレームワーク、PyTorchへのワンクリック変換が可能

Theano、Caffeに続き、大学主導のディープラーニングフレームワークがオープンソース化され、国...

需要は拡大し続けており、配達ロボットには克服すべきいくつかの大きな技術的課題がある

特別なイベントの影響を受けて、非接触型の配達や食事が需要のトレンドになっています。その結果、業界にお...

...

...

...

人工知能の波で私たちは職を失うのでしょうか?

[[200388]]概要: 私たちの仕事が機械に置き換えられるのはいつでしょうか? 最も危険な仕事...

量子コンピューティングは人工知能の未来でしょうか?

量子コンピューティングは「量子状態」でさまざまな結果に対応できるため、機械学習や人工知能の問題に対す...

クアルコムがSnapdragon 845の機能を発表:より高速で、より電力効率が高く、AIパフォーマンスが2倍に

12月6日ハワイ時間、クアルコムは第2回Snapdragonテクノロジーサミットで、新型Snapdr...

自動運転車はすでに登場していますが、船舶が AI に取って代わられるまでには長い時間がかかるのでしょうか?

次回フェリーに乗るときは、ブリッジをよく見ることを忘れないでください。舵を取っているのは人間ではない...

...

AIを活用して、ナスダックは金融業界向けのSaaSプロバイダーに変革したいと考えている

Nasdaq の CIO 兼 CTO である Brad Peterson 氏は、10 年以上にわたっ...

2020年グローバルNLP業界レポート:NLPテクノロジー予算が30%増加

2020 年は、公衆衛生、職業生活、経済、そして日常生活のほぼすべての側面にとって特別な年となりまし...