人気のSoraはDiTを最前線に押し上げ、GitHubのホットリストにも載りました。新しいバージョンのSiTに進化しました。

人気のSoraはDiTを最前線に押し上げ、GitHubのホットリストにも載りました。新しいバージョンのSiTに進化しました。

リリースされてから1週間近く経ちますが、OpenAIの動画生成モデルSoraの衝撃はまだまだ続きます!

中でも、Sora の研究開発リーダーの 1 人である Bill Peebles 氏とニューヨーク大学の助教授である Xie Saining 氏が執筆した DiT (Diffusion Transformer) 論文「Scalable Diffusion Models with Transformers」は、Sora を支える重要な技術基盤の 1 つと考えられています。この論文はICCV 2023に採択されました。


  • 論文アドレス: https://arxiv.org/pdf/2212.09748v2.pdf
  • GitHub アドレス: https://github.com/facebookresearch/DiT

ここ2日間で、DiT論文やGitHubプロジェクトの人気が高まり、再び大きな注目を集めています。

この論文は PapersWithCode のトレンド リサーチ リストに掲載され、約 2,700 個のスターが付けられました。また、GitHub のトレンド リストにも掲載され、スターの数は毎日数百個ずつ増加し、スターの総数は 3,000 を超えました。

出典: https://paperswithcode.com/

出典: https://github.com/facebookresearch/DiT

この論文の初版は2022年12月であり、第2版は2023年3月に更新されました。当時、拡散モデルは画像生成において驚くべき成果を達成しており、そのほとんどすべてが畳み込み U-Net をバックボーンとして使用していました。

したがって、本論文の目的は、拡散モデルにおけるアーキテクチャ選択の重要性を探り、将来の生成モデル研究のための実証的なベースラインを提供することです。この研究は、U-Net 誘導バイアスが拡散モデルのパフォーマンスにとって重要ではなく、トランスフォーマーなどの標準設計に簡単に置き換えることができることを示しています。

具体的には、研究者らはトランスフォーマーアーキテクチャに基づく新しい拡散モデル DiT を提案し、潜在拡散モデルをトレーニングして、一般的に使用されている U-Net バックボーンネットワークを潜在パッチで動作するトランスフォーマーに置き換えました。彼らは、フォワードパスの複雑度を GFLOP 単位で測定することにより、Diffusion Transformer (DiT) のスケーラビリティを分析しました。

研究者たちは、モデルの深さと幅が異なる 4 つの構成 (DiT-S、DiT-B、DiT-L、DiT-XL) で実験を行いました。

トランスフォーマーの深さ/幅を増やすか、入力トークンの数を増やすと、GFLOP が高い DiT では一貫して FID が低くなることを発見しました。

DiT-XL/2 モデルは、優れたスケーラビリティに加えて、クラス条件付き ImageNet 512×512 および 256×256 ベンチマークでこれまでのすべての拡散モデルを上回り、後者で FID SOTA 2.27 を達成しました。

より優れた品質、スピード、柔軟性を備えたSiT

さらに、DiTも今年1月にアップグレードされました! Xie Saining 氏と彼のチームは、同じバックボーンでより優れた品質、速度、柔軟性を実現する SiT (Scalable Interpolant Transformer) を立ち上げました。

Xie Saining 氏は、SiT は標準的な拡散を超え、補間を通じてより広い設計空間を探索すると述べました。

この論文のタイトルは「SiT: スケーラブルな補間トランスフォーマーによるフローおよび拡散ベースの生成モデルの調査」です。


  • 論文アドレス: https://arxiv.org/pdf/2401.08740.pdf
  • GitHub アドレス: https://github.com/willisma/SiT

簡単に言えば、SiT は柔軟な補間フレームワークを DiT に統合し、画像生成における動的トランスポートの微妙な探索を可能にします。 SiT は ImageNet 256 で FID 2.06 を達成し、補間ベースのモデルを新たなレベルに押し上げました。

論文の第一著者であるニューヨーク大学の学部生ナンイエ・マー氏が論文を解釈した。この論文では、確率的補間が拡散とフローの統一されたフレームワークを提供すると主張しています。ただし、DDPM (ノイズ除去拡散確率モデル) に基づく DiT と新しい補間ベースのモデルとの間にはパフォーマンスの違いがあることに注意してください。したがって、研究者はパフォーマンスの向上がどこから来るのかを探求したいと考えています。

彼らは、設計空間における一連の直交ステップを経て、DiT モデルから SiT モデルへと徐々に移行することで、この質問に答えます。拡散モデルからの各移行によるパフォーマンスへの影響は慎重に評価されます。

研究者たちは、補間とサンプラーがパフォーマンスに最も大きな影響を与えることを発見しました。補間(つまり、分布パス)を分散保存型から線形に切り替え、サンプラーを決定論型から確率論型に切り替えると、劇的な改善が見られました。

ランダムサンプリングの場合、拡散係数はトレーニングとサンプリングの間で結び付けられる必要はなく、推論時間に関して多くの選択肢が可能であることを示します。決定論的サンプラーとランダムサンプラーはどちらも、異なる計算予算の下ではそれぞれ独自の利点を持っています。

最後に、研究者らは、SiT を連続的、レート予測可能、線形スケジュール可能、SDE サンプリング モデルとして説明しています。拡散モデルと同様に、SiT はパフォーマンスの向上を実現し、DiT よりも優れたパフォーマンスを発揮します。

DiT と SiT の詳細については、元の論文を参照してください。

<<:  20 分で回路基板の組み立て方を学びましょう!オープンソースのSERLフレームワークは、精密制御において100%の成功率を誇り、人間の3倍の速さです。

>>:  なぜSoraはOpenAIから生まれたのでしょうか?最前線で働く従業員の勤務と休息のタイムラインの秘密:私たちは

ブログ    
ブログ    

推薦する

人工知能が人々を失業させるのは悪いことではありません。それどころか、それは良い役割を果たします。

近年の科学技術の急速な発展に伴い、人工知能の概念が徐々に明確になってきています。特にOTT業界の重要...

衝撃の2017年!この10日間は中国の人工知能の時代

2017年にはすでに「残高不足」が発生。今年、中国の人工知能開発は多くの進歩を遂げ、実りある成果を達...

中国の機械工、黄永剛氏のチームの新しい研究:脳への光遺伝学インプラントがマウスを一瞬でゲイの友達に変える

研究者らはマウスの頭蓋骨に神経インプラントを埋め込み、インプラントを作動させるとマウスはすぐに交流し...

李開復:「AI+」には4つの段階があると考える理由

編集者注: これは、2019年上海世界人工知能会議でSinovation Ventures会長のKa...

「緊急天使」がロボットを救出するために前進し、事態を収拾した

科学技術の進歩と社会の発展に伴い、ロボット産業は繁栄の時代を迎えています。ロボット工学は、コンピュー...

人工知能に関しては 5 つの主要な考え方があります。あなたはどれを支持しますか?

将来の雇用状況は依然としてテクノロジー大手やCEOによって決定されますが、人工知能の将来は依然として...

人工知能がプログラマーに取って代わるまでにはどれくらい時間がかかるのでしょうか?

予測によると、AI の影響を最も受ける職業の 1 つはアプリケーション開発者です。結局のところ、Ch...

...

...

...

...

大規模モデルにおける幻覚軽減技術の包括的調査

大規模言語モデル (LLM) は、多数のパラメーターとデータを備えたディープ ニューラル ネットワー...

TensorFlow を使用した ML モデルの実装と最適化: 1 秒あたり 3 億回の予測

[[425184]] TensorFlow は最も広く使用されている機械学習フレームワークの 1 つ...

アルトマン氏がOpenAIの役員に復帰: 3万件の文書を読んだ後、調査チームは

オープンAIのCEOサム・アルトマン氏は、昨年の同社の経営混乱時の同氏の行動が「強制解雇には当たらな...