画像やテキストが無限の3D世界を生み出します!スタンフォード大学の呉嘉軍氏のチームの新しい研究は、ネットユーザーから「信じられない」と評された。

画像やテキストが無限の3D世界を生み出します!スタンフォード大学の呉嘉軍氏のチームの新しい研究は、ネットユーザーから「信じられない」と評された。

スタンフォード大学の呉嘉軍チームが『不思議の国のアリス』の傑作のAI版を制作!

たった 1 つの画像または 1 段落のテキストを使用して、カメラの軌跡に沿って無限に一貫した 3D シーンを生成できます。

古代の詩を入力するだけで、詩の中の場面がすぐに表示されます。

そして、それは行ったり来たりできるタイプで、また戻ることができるタイプです。

同じ開始点から異なるシーンに入ることができます。

リアルなシーンもOK、キャラクターの影などのディテールも違和感なし:

ブロックワールドはさらに簡単にプレイでき、まるで「Minecraft」を開いたような感じです。

この作品は「WonderJourney」と呼ばれ、スタンフォード大学の Wu Jiajun 氏のチームと Google Research が共同で制作しました。

WonderJourney は、あらゆる場所から多様で一貫性のある 3D シーンを無限に生成できるだけでなく、テキストの説明に基づいて生成する場合にも高度な制御が可能です。

マウスをビデオの上に置くだけで、自動スライドが一時停止します。

この作品の公開にネットユーザーからは「信じられない」という声が上がった。プロジェクトコードはまだ正式にリリースされていませんが、200 を超えるスターを獲得しています。

AI研究者のザンダー・スティーンブルッゲ氏は驚いてこう語った。

これは、生成 AI と従来の 3D テクノロジーの完璧な組み合わせです。

これまでの作品は、一つのシナリオに特化していたのですが、『WonderJourney』は新たな世界への扉を開いたとも言えます。

それで、これはどのように行われるのでしょうか?

素晴らしい3Dの旅を始めましょう

無限に一貫性のある 3D シーンを生成する際の大きな課題の 1 つは、要素の多様性を維持しながら、シーン要素の論理的な組み合わせを生成する方法です。

これには、生成される要素の空間位置の合理性を判断すること、および新しいシーンと古いシーン間の遮蔽関係、視差、その他の幾何学的関係を処理することが必要です。

WonderJourney はこの点に関して非常に細心の注意を払っていることがわかります。

どんなスタイルでも簡単にコントロールできます:

これを実現するための鍵となるのは、WonderJourney のモジュール式プロセスです。

全体的な生成プロセスは、「生成するオブジェクトを決定する」、「これらのオブジェクトをどこに配置するか」、「これらのシーンを幾何学的にどのように接続するか」という 3 つのステップに分かれています。

次の 3 つのモジュールを完了する必要があります。

  • シーンの説明の生成: 大規模言語モデル(LLM)を使用して、現在のシーンに基づいて次のシーンのテキストの説明を生成します。
  • ビジュアルシーン生成: テキストによる説明をシーンの 3D ポイント クラウド表現に変換します。
  • 視覚的な検証: VLM を使用して生成されたシーンを検証し、不合理な結果が検出された場合に再生成を開始します。

具体的には、シーン記述生成モジュールでは、事前トレーニング済みの LLM を使用して現在のシーン記述を入力し、自己回帰を通じて次のシーンを生成します。次のシーンには、スタイル、オブジェクト、背景の 3 つの部分の説明が含まれます。

さらに、自然言語記述は単語クラスによってフィルタリングされ、名詞と形容詞のみが保持されます。新しいシーン記述が生成されるたびに、シーン記述メモリが更新されます。

ビジュアルシーン生成モジュールでは、まず現在の画像/テキストが 3D ポイント クラウド表現に変換されます。

次に、深度調整を使用して、オブジェクト境界の深度の不連続性を強調します。簡単に言えば、境界の両側の深度のコントラストがより明確になり、遷移がよりリアルになります。

次に、テキストガイドによる修復を使用して、テキストの説明に基づいて新しいシーン画像を生成します。

研究者らはまた、深度一貫性の損失と再レンダリング一貫性のメカニズムを設計し、新しいシーンと古いシーン間のオクルージョンとポイントクラウドの配置を改善しました。

最後に、ビジュアル検証モジュールは VLM キューを使用して、フレーム、ぼかしなど、生成されたイメージ内の不良結果を検出し、検出された場合はシーンを再生成します。

これら 3 つのモジュールは実装可能であり、最も高度な事前トレーニング済みモデルに置き換えることができるため、トレーニングは不要であることは注目に値します。

実験的テスト

コヒーレント 3D シーン生成は既存の利用可能なデータセットがない新しいタスクであるため、研究者は自分で撮影した写真、オンライン上の著作権フリーの写真、および生成された画像を使用して実験を評価しました。

さらに、画像ベースの InfiniteNature-Zero とテキストベースの SceneScape という 2 つの最先端の連続ビュー生成方法がベースラインとして使用されます。

定性的な結果は、異なるタイプの入力から一貫した 3D シーン シーケンスを生成することの有効性を示しており、この方法では任意の入力から 3D シーンを生成できることを実証しています。

さらに、同じ入力から異なる出力が生成されるため、アプローチの多様性が実証されます。

研究者らはまた、生成効果の多様性、視覚品質、シーンの複雑さ、面白さという4つの側面で人間の嗜好評価を行った。

結果は、WonderJourney メソッドが InfiniteNature-Zero および SceneScape よりも大幅に優れていることを示しています。

著者について

この論文はスタンフォード大学とGoogle ResearchのWu Jiajun氏のチームによるものである。

論文の第一著者はスタンフォード大学博士課程4年生のYu Hongxing氏であり、指導教員はWu Jiajun氏である。

彼の主な研究分野は、物理的なシーンの理解と動的モデリングです。

Yu Hongxing はかつて Google Research でインターンをしており、その期間中に論文の一部を完成させました。

Jiajun Wu は現在、スタンフォード大学の助教授であり、スタンフォード視覚学習研究所 (SVL) およびスタンフォード人工知能研究所 (SAIL) に所属しています。

彼はMITで博士号を取得し、清華大学の姚クラスを卒業して学士号を取得した。かつては「清華大学の10人の偉大な学者の一人」と称えられた。

論文リンク: https://arxiv.org/abs/2312.03884

<<: 

>>: 

ブログ    
ブログ    
ブログ    

推薦する

...

Chen Danqi 氏のグループによるマスク言語モデルに関する研究: 15% のマスク率は最適ではないが、40% は維持可能か?

少し前に、スローン財団は2022年度スローン研究賞の受賞者を発表しました。Chen Danqi、Fa...

エッセンス共有サイトのランキングアルゴリズムのまとめ

ウェブサイトのランキングは、ウェブサイトの最適化を行うすべての人が最も気にしていることです。しかし、...

カイト・ランナーがドローンに出会ったとき...

壊れた凧や飛んでいる風船、捨てられたビニール袋などをいつも追いかけている人たちがいます。彼らは「凧追...

自然言語処理におけるディープラーニングの応用

自然言語処理とは、自然言語を使用して人間とコンピューターが効果的にコミュニケーションするためのさまざ...

テスラは大きな疑問に直面:オートパイロットは事故の1秒前に自動的に終了

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

5G無人配送車両が北京に登場、現在試験運用中

最近、北京市自転車・電動自動車産業協会が主催した「第一回ターミナル配送インテリジェント交通サミットフ...

ファーウェイ、セキュリティ業界を洞察から先見へと進化させる2019年スマートセキュリティ事業戦略を発表

[51CTO.comより引用] 2019年8月8日、ファーウェイの2019年スマートセキュリティビジ...

マスクを着用していても、AIはあなたが何を言っているか理解できる

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

大学は人工知能人材育成に力を入れており、「ロボット工学」専攻が人気に

[[225297]]毎年恒例の「大学入試シーズン」が到来し、受験生や保護者にとって、受験願書の記入は...

人間を殺し、ロボット犬を救う「ボストンパワー」ロボットはターミネーターに変身する

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

顔の照明を自由に編集:ジェネレーティブモデルに基づく3Dリライティングシステムがリリース

実際の人間の顔の 3 次元モデリング、合成、再照明は、コンピュータ グラフィックスの分野で高い応用価...

...

...