人気のSoraはDiTを最前線に押し上げ、GitHubのホットリストにも載りました。新しいバージョンのSiTに進化しました。

人気のSoraはDiTを最前線に押し上げ、GitHubのホットリストにも載りました。新しいバージョンのSiTに進化しました。

リリースされてから1週間近く経ちますが、OpenAIの動画生成モデルSoraの衝撃はまだまだ続きます!

中でも、Sora の研究開発リーダーの 1 人である Bill Peebles 氏とニューヨーク大学の助教授である Xie Saining 氏が執筆した DiT (Diffusion Transformer) 論文「Scalable Diffusion Models with Transformers」は、Sora を支える重要な技術基盤の 1 つと考えられています。この論文はICCV 2023に採択されました。


  • 論文アドレス: https://arxiv.org/pdf/2212.09748v2.pdf
  • GitHub アドレス: https://github.com/facebookresearch/DiT

ここ2日間で、DiT論文やGitHubプロジェクトの人気が高まり、再び大きな注目を集めています。

この論文は PapersWithCode のトレンド リサーチ リストに掲載され、約 2,700 個のスターが付けられました。また、GitHub のトレンド リストにも掲載され、スターの数は毎日数百個ずつ増加し、スターの総数は 3,000 を超えました。

出典: https://paperswithcode.com/

出典: https://github.com/facebookresearch/DiT

この論文の初版は2022年12月であり、第2版は2023年3月に更新されました。当時、拡散モデルは画像生成において驚くべき成果を達成しており、そのほとんどすべてが畳み込み U-Net をバックボーンとして使用していました。

したがって、本論文の目的は、拡散モデルにおけるアーキテクチャ選択の重要性を探り、将来の生成モデル研究のための実証的なベースラインを提供することです。この研究は、U-Net 誘導バイアスが拡散モデルのパフォーマンスにとって重要ではなく、トランスフォーマーなどの標準設計に簡単に置き換えることができることを示しています。

具体的には、研究者らはトランスフォーマーアーキテクチャに基づく新しい拡散モデル DiT を提案し、潜在拡散モデルをトレーニングして、一般的に使用されている U-Net バックボーンネットワークを潜在パッチで動作するトランスフォーマーに置き換えました。彼らは、フォワードパスの複雑度を GFLOP 単位で測定することにより、Diffusion Transformer (DiT) のスケーラビリティを分析しました。

研究者たちは、モデルの深さと幅が異なる 4 つの構成 (DiT-S、DiT-B、DiT-L、DiT-XL) で実験を行いました。

トランスフォーマーの深さ/幅を増やすか、入力トークンの数を増やすと、GFLOP が高い DiT では一貫して FID が低くなることを発見しました。

DiT-XL/2 モデルは、優れたスケーラビリティに加えて、クラス条件付き ImageNet 512×512 および 256×256 ベンチマークでこれまでのすべての拡散モデルを上回り、後者で FID SOTA 2.27 を達成しました。

より優れた品質、スピード、柔軟性を備えたSiT

さらに、DiTも今年1月にアップグレードされました! Xie Saining 氏と彼のチームは、同じバックボーンでより優れた品質、速度、柔軟性を実現する SiT (Scalable Interpolant Transformer) を立ち上げました。

Xie Saining 氏は、SiT は標準的な拡散を超え、補間を通じてより広い設計空間を探索すると述べました。

この論文のタイトルは「SiT: スケーラブルな補間トランスフォーマーによるフローおよび拡散ベースの生成モデルの調査」です。


  • 論文アドレス: https://arxiv.org/pdf/2401.08740.pdf
  • GitHub アドレス: https://github.com/willisma/SiT

簡単に言えば、SiT は柔軟な補間フレームワークを DiT に統合し、画像生成における動的トランスポートの微妙な探索を可能にします。 SiT は ImageNet 256 で FID 2.06 を達成し、補間ベースのモデルを新たなレベルに押し上げました。

論文の第一著者であるニューヨーク大学の学部生ナンイエ・マー氏が論文を解釈した。この論文では、確率的補間が拡散とフローの統一されたフレームワークを提供すると主張しています。ただし、DDPM (ノイズ除去拡散確率モデル) に基づく DiT と新しい補間ベースのモデルとの間にはパフォーマンスの違いがあることに注意してください。したがって、研究者はパフォーマンスの向上がどこから来るのかを探求したいと考えています。

彼らは、設計空間における一連の直交ステップを経て、DiT モデルから SiT モデルへと徐々に移行することで、この質問に答えます。拡散モデルからの各移行によるパフォーマンスへの影響は慎重に評価されます。

研究者たちは、補間とサンプラーがパフォーマンスに最も大きな影響を与えることを発見しました。補間(つまり、分布パス)を分散保存型から線形に切り替え、サンプラーを決定論型から確率論型に切り替えると、劇的な改善が見られました。

ランダムサンプリングの場合、拡散係数はトレーニングとサンプリングの間で結び付けられる必要はなく、推論時間に関して多くの選択肢が可能であることを示します。決定論的サンプラーとランダムサンプラーはどちらも、異なる計算予算の下ではそれぞれ独自の利点を持っています。

最後に、研究者らは、SiT を連続的、レート予測可能、線形スケジュール可能、SDE サンプリング モデルとして説明しています。拡散モデルと同様に、SiT はパフォーマンスの向上を実現し、DiT よりも優れたパフォーマンスを発揮します。

DiT と SiT の詳細については、元の論文を参照してください。

<<:  20 分で回路基板の組み立て方を学びましょう!オープンソースのSERLフレームワークは、精密制御において100%の成功率を誇り、人間の3倍の速さです。

>>:  なぜSoraはOpenAIから生まれたのでしょうか?最前線で働く従業員の勤務と休息のタイムラインの秘密:私たちは

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

...

AppleとFacebookはなぜAIとフェイクニュースに関して異なる意見を持っているのでしょうか?

[[236525]]諺にもあるように、「聞いて信じる、見て信じる」です。しかし、AI技術の発展によ...

AIは人間ではないため、米国特許庁はAIの発明の全てを認めない

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

私たちが作ったAIは私たちを裏切るでしょうか?

数千年前、そろばんは暗算よりも速い計算ができる魔法の道具でした。 [[418541]]そろばんを使っ...

AIが疫病と戦う:百度がマスク顔検出・分類モデルをオープンソース化

仕事に戻るにあたり、各地域はどのように流行を予防すべきでしょうか?人工知能技術は、新型コロナウイルス...

...

2020年以降に変化をもたらす8つのAIトレンド

人工知能(AI)は長い間、SF小説や映画にのみ登場するフィクションだと考えられてきました。今日、人工...

...

「初の常温常圧超伝導体」に対する共同研究者の反応:内容に欠陥あり

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

MITチームの新しいテストはAIの推論と人間の思考を比較する

AI が洞察を導き出し、意思決定を行う方法は謎に包まれていることが多く、機械学習の信頼性について懸...

将来的には映画の吹き替えにも人工知能が使われるようになるのでしょうか?

英国人映画監督が人工知能(AI)を使って外国映画の鑑賞方法に革命をもたらそうとしている。俳優の顔をデ...

...

2020 年の優れた機械学習プロジェクト 23 件 (ソース コード付き)

[[336522]]ビッグデータダイジェスト制作編集者: ルナ教科書で習ったことと実際の業務に乖離...