OpenAI が Stable Diffusion を救います! Ilya Song Yang らによるオープンソースの Dall E3 デコーダー

OpenAI が Stable Diffusion を救います! Ilya Song Yang らによるオープンソースの Dall E3 デコーダー

予想外にも、OpenAI は「競合相手」である Stable Diffusion を活用しました。

話題の「AI Spring Festival Gala」で、OpenAI は 2 つの作品を一度にオープンソース化しました。その 1 つは、SD 専用の VAE モデルである一貫性デコーダーです。

複数の顔、テキストを含む画像、線の制御など、より高品質で安定した画像生成が可能になります。

大手 V ブロガーは、このデコーダーはDall·E 3 と同じであるはずだと分析し、OpenAI も GitHub プロジェクトページで Dall·E 3 の論文を提供しました。


サポートされる具体的なバージョンは、Stable Diffusion 1.4/1.5 です。

プロジェクトページには例が1つだけ掲載されており、具体的なトレーニング方法も記載されていない。ネットユーザーらはこれを「口数の少ない冷酷な人風のオープンソース」と呼んでいる。

そのままロードして使用することができます。

そして、この一貫性デコーダーには長い歴史があります。

これは、OpenAI の共同設立者兼主任科学者の Ilya 氏、OpenAI の中国の新星 Song Yang 氏らが提案した一貫性モデルから生まれたものです。

このモデルが今年上半期にオープンソース化された際、業界に衝撃を与え、「普及モデルに終止符を打つ」可能性があると評された。

つい最近、Song Yangらはモデルのトレーニング方法を最適化し、画像生成の品質をさらに向上させることができました。

開発者デーでのもう一つの主要なオープンソース リリースは、大規模な音声モデル Whisper 3 でした。これは、GPT シリーズの構築に重要な役割を果たした伝説の人物、アレック・ラドフォードによって作成されました。

ネットユーザーはため息をつくほかなかった。「OpenAI がオープンソース化されるのは嬉しいし、今後もさらに多くのモデルが公開されることを期待しています。」

一貫性モデルは進化した

まずは、もともと世界的に有名だった一貫性モデルの最初のバージョン(Consistency Models)を見てみましょう。

拡散モデルでは段階的な反復により画像生成が遅くなるという問題を解決することを目的としています。約 64 枚の 256×256 画像を生成するのにかかる時間はわずか 3.5 秒です。

拡散モデルと比較すると、主に 2 つの利点があります。

まず、敵対的トレーニングなしで高品質の画像サンプルを直接生成できます。

第二に、拡散モデルでは数百、あるいは数千回の反復が必要になる場合もありますが、一貫性モデルでは、さまざまな画像タスクを処理するのに 1 つまたは 2 つのステップしか必要ありません。

カラー化、ノイズ除去、超解像度など、これらのタスクの明示的なトレーニングを必要とせずに、すべて数ステップで実行できます。 (もちろん、少数サンプル学習を行えば、生成効果はより高くなります)

原理的には、一貫性モデルはランダムノイズを複雑な画像に直接マッピングし、出力は同じ軌道上の同じポイントとなるため、ワンステップ生成が実現されます。

この論文では、2 つのトレーニング方法を提案しています。1 つは一貫性蒸留に基づくもので、事前トレーニング済みの拡散モデルを使用して隣接するデータ ペアを生成し、モデル出力間の差異を最小限に抑えることで一貫性モデルをトレーニングします。

もう 1 つのアプローチは、一貫性モデルを別の生成モデルとしてトレーニングする独立したトレーニングです。

実験結果によると、一貫性モデルは、1 ステップおよび数ステップのサンプリングの両方で、漸進的蒸留などの既存の蒸留技術よりも優れていることが示されています。

スタンドアロン生成モデルとしてトレーニングされた場合、一貫性モデルは、CIFAR-10、ImageNet 64×64、LSUN 256×256 などの標準ベンチマークで既存のワンステップ非敵対的生成モデルと同等のパフォーマンスを発揮します。

半年後に出版された論文の第2版では、トレーニング方法が最適化されました。

重み関数、ノイズ埋め込み、ドロップアウトを最適化することで、一貫性モデルは学習した特徴に依存せずに優れた生成品質を実現できます。

重み関数の選択が改善され、ノイズ レベルが増加するにつれて重み関数が減少するようになっており、これにより、ノイズ レベルが小さい場合の一貫性の損失がより重視され、サンプルの品質が向上します。

同時に、ノイズ埋め込み層の感度が調整され、小さなノイズの違いに対する感度が低くなり、連続時間一貫性トレーニングの安定性が向上します。

また、一貫性モデルでより大きなドロップアウトを使用し、教師ネットワークで EMA を削除し、擬似 Huber 損失関数を学習した特徴距離 (LPIPS など) に置き換えると、画像の品質がさらに向上することがわかりました。

もう一つ

この最新のオープンソース デコーダーに戻ると、実際のテスト エクスペリエンスの最初の波がここにあります。

今のところ効果はあまり明らかではなく、走るスピードが遅いという報告が多くありました。

しかし、これはまだ初期のテストであり、将来的にはさらに改善される可能性があります。

特筆すべきは、一貫性モデルの立ち上げを主導した宋楊氏は若手ながら、普及モデル界ではOG(ベテラン)と評価されていることだ。

△NvidiaのAI科学者ジム・ファン氏のTwitterより

今年、宋楊もその一貫性あるモデルのおかげで有名になった。この男は16歳で理科の成績トップで、清華大学に進学した。彼に関する他の記事は、こちらをクリック:OpenAIの人気新星、宋楊:最新の研究は「普及モデルの終焉」と評価され、16歳で清華大学に進学した。

論文の宛先:

[1] https://arxiv.org/abs/2310.14189.

[2] https://arxiv.org/abs/2303.01469.

<<:  描いた場所に画像が動きます! Gen-2の新機能「マジックブラシ馬良」が大ヒット、ネットユーザー:緊急、緊急、緊急

>>:  PaddleOCRのスーパーパワーを解き放つ

ブログ    

推薦する

ビッグデータ、人工知能、ロボットの血縁関係とは?

ビッグデータ、人工知能(AI)、ロボット、アルゴリズム、ディープラーニング、モノのインターネット、セ...

孫正義氏:今後 30 年の人工知能と IoT(詳細記事)

[[264296]]これは非常に興味深いスピーチです。これはMWCでソフトバンクの孫正義氏が行った...

...

...

2022年にテクノロジー業界を変えるAIユニコーン企業トップ10

現在、人工知能は独立に向けて動き始めています。世界中の企業はこの学際的な分野に適応し、ほぼすべてのビ...

IBMとNASAが炭素排出量追跡のためのオープンソースAIモデルを発表

IBM は最近、NASA と提携して、炭素排出量の追跡を改善し、気候変動の影響を監視するための新しい...

...

機械学習モデルの解釈可能性について

2019年2月、ポーランド政府は銀行法に改正を加え、信用判定に否定的な結果が出た場合に顧客に説明を求...

...

70%は輸入品。中国の産業用ロボットはチップのような悲劇をどう回避できるのか?

ロボットは産業の魂です。 [[386663]]しかし、私たちの身近な国である日本が、20年もの間、世...

...

音声UIの裏にある魅力

Amazon の Echo および Echo Dot スマート スピーカーの成功により、音声コマンド...

人工知能は人間に取って代わろうとしているのでしょうか、あるいは人間を支配しようとしているのでしょうか?本当にそうなのでしょうか?

生産性が徐々に生産と生活をカバーするようになると、ロボットはすぐに生活のあらゆる分野に参入し、一部の...

自動化によって、採用担当者が大規模な適格な人材を特定する方法

AI ベースの自動化ツールは、候補者データを収集して処理し、候補者の調達、スクリーニング、多様性、そ...

強化学習は2020年にブレークスルーを達成するでしょうか?

強化学習は AI/ML の目標を達成するために不可欠ですが、克服すべきハードルがまだいくつかあります...