この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 画像生成の新しい王様、拡散モデルが誕生したのはつい最近のことです。 その理論と実践はどちらもまだ「急速に成長」しています。 NVIDIA の StyleGAN のオリジナル作成者は、拡散モデルの設計に関するヒントやガイドラインを提供しようとしました。その結果、モデルの品質と効率が向上しました。たとえば、既存の ImageNet-64 モデルの FID スコアは 2.07 ポイントから 1.55 ポイントに向上し、SOTA に近づきました。 彼らの仕事の成果はすぐに業界のリーダーたちから認められました。 DeepMind の研究者はこの論文を称賛しました。「この論文は、拡散モデルをトレーニングする人にとって必読の論文であり、間違いなく金鉱です。」 3つの主要な貢献により、モデルの品質と効率が大幅に向上しますStyleGAN の作者による拡散モデルへの 3 つの主要な貢献を次の観点から見ていきます。 一般的なフレームワークを使用して拡散モデルを表現するこの部分では、著者の貢献は主に、モデルの背後にある理論を実用的な観点から観察し、トレーニングとサンプリングの段階で現れる「具体的な」オブジェクトとアルゴリズムに焦点を当て、コンポーネントがどのように相互に接続されているか、およびシステム全体の設計で使用できる自由度をより深く理解することにあります。 要点は次の表です。 この表には、3 つのモデルの特定のバリエーションをフレームワーク内で再現するための式が示されています。 (これら 3 つの方法 (VP、VE、iDDPM+DDIM) は、広く使用されており、SOTA パフォーマンスを実現するだけでなく、異なる理論的根拠に基づいています。) これらの式では、原則としてコンポーネント間の暗黙的な依存関係は考慮されず、妥当な範囲内で任意の単一の宣言を選択することで機能モデルを導出できます。 ランダムサンプリングと決定論的サンプリングの改善著者による 2 番目の貢献は、拡散モデルからの合成画像のサンプリング プロセスに関するものです。 彼らは最適な時間離散化を決定し、高次ルンゲ・クッタ法をサンプリングプロセスに適用し、3つの事前トレーニング済みモデルに対してさまざまな方法を評価し、サンプリングプロセスにおけるランダム性の有用性を分析しました。 その結果、合成プロセスで必要なサンプリング手順の数が大幅に削減され、改良されたサンプラーは、広く使用されているいくつかの拡散モデルの代替品として使用できます。 まず決定論的サンプリングについて見てみましょう。使用される 3 つのテスト モデルは上記と同じで、異なる理論的フレームワークとモデル ファミリからのものです。 著者らは、まず元のサンプラーを使用してこれらのモデルのベースライン結果を実装し、次に表 1 の式を使用してこれらのサンプリング方法を統一されたフレームワークに導入し、改善を加えます。 次に、生成された 50,000 枚の画像と利用可能なすべての実際の画像の間で計算された FID スコアに基づいて品質が評価されます。 ご覧のとおり、元の決定論的サンプラーは青で表示され、これらのメソッドを統合フレームワーク(オレンジ)で再実装すると、同様またはより良い結果が得られます。 著者らは、これらの違いは、元の実装におけるいくつかの見落としと、著者らによる離散ノイズ レベルのより慎重な処理によって生じたものであると説明しています。 決定論的サンプリングには多くの利点がありますが、各ステップで画像に新しいノイズが挿入されるランダム サンプリングよりも品質の低い出力画像が生成されます。 しかし、著者は、ODE (常微分方程式)とSDE (確率微分方程式)が理論的に同じ分布を回復すると仮定した場合、ランダム性の役割は何なのか疑問に思います。 ここで彼らは、既存の高次 ODE 積分器と、ノイズの追加と除去のための明示的な「ランジュバンのような「チャーン」」を組み合わせた新しいランダム サンプラーを提案しています。 最終的なモデルのパフォーマンスは大幅に向上し、サンプラーを改善するだけで、ImageNet-64 モデルの元の FID スコアが 2.07 から 1.55 に増加し、SOTA レベルに近づきました。 前処理とトレーニング著者の 3 番目の貢献は、スコアモデリングニューラル ネットワークのトレーニングに焦点を当てています。 このセクションでは、一般的に使用されるネットワーク アーキテクチャ(DDPM、NCSN)を引き続き使用し、拡散モデル設定におけるネットワークの入力、出力、損失関数の前処理の原理的な分析を通じて、トレーニング ダイナミクスを改善するためのベスト プラクティスを導き出します。 たとえば、σ (ノイズ レベル)に依存するスキップ接続を使用してニューラル ネットワークを事前トレーニングすると、y (信号)または n (ノイズ) 、あるいはその中間の何かを推定できるようになります。 次の表は、モデルのさまざまなトレーニング構成によって取得された FID スコアを具体的に示しています。 著者らは、決定論的サンプラーを使用したベースライントレーニング構成(構成Aと呼ぶ)から始めて、基本的なハイパーパラメータを再調整し(構成B) 、最低解像度のレイヤーを削除して最高解像度のレイヤーの容量を2倍にすることでモデルの表現力を向上させました(構成C) 。 次に、元の {cin、cout、cnoise、cskip} オプションを前処理(構成 D)に置き換えます。これにより、結果はほぼ同じになりますが、64×64 解像度では VE が大幅に向上します。この前処理方法の主な利点は、FID 自体を改善することではなく、トレーニングをより堅牢にし、悪影響なしに損失関数を再設計することに焦点を移すことです。 VP と VE は、Fθ (構成 E と F) のアーキテクチャのみが異なります。 とりわけ、著者らはトレーニング中のノイズレベルの分布を改善することを提案し、 GAN で一般的に使用される手法である非漏洩拡張も拡散モデルにメリットをもたらすことを発見しました。 たとえば、上の表から、条件付きおよび条件なしの CIFAR-10 の最新の FID がそれぞれ 1.79 と 1.97 に達し、以前の記録(1.85 と 2.1046)を破ったことがわかります。 詳細については、原著論文を参照してください。 |
<<: 米商務省の新規制:承認なしに中国とセキュリティの脆弱性を共有することを禁止、マイクロソフトの異議は無効
>>: Jitu: 5秒でNeRFをトレーニングしましょう!オープンソース
改革開放から30年、中国は科学技術の進歩の分野で非常に重要な役割を果たしてきました。人口ボーナス、政...
傑作を作ろうとしている画家が、限られたパレットに制限されているところを想像してみてください。彼らは美...
馬文華氏は、中国科学院自動化研究所でパターン認識と人工知能の博士号を取得しました。主に画像認識、ター...
ヒントン氏は、AI はすでに感情を持っているか、あるいは将来感情を持つようになると信じている。その後...
2022年2月6日にarXivにアップロードされたレビュー論文「自動運転車の安全性保証、検証、認証:...
規制の厳しい業界の企業は、AI を導入しようとすると、いわゆる「ブラック ボックス」問題に直面するこ...
人工知能(AI)は私たちが想像していたものではありません。未来だけに存在する概念で、世界を変えること...
[[346111]]序文再帰は非常に重要なアルゴリズムの考え方です。フロントエンド開発者であっても、...
[[420733]] 2025 年までに、人工知能 (AI) は、今日の複雑なタスクの一部を効率的...
英国政府は11月2日、国の人工知能能力をさらに強化するため、人工知能研究資源への投資を2023年3月...
人工知能 (AI) は、私たちがよく人工知能と呼んでいるものです。これは、コンピューター プログラム...