写真を撮るだけで、宮崎駿や新海誠などの日本のアニメ巨匠の手描き風に変換できます。アニメ画像を生成するために特別に設計されたこのGANは、非常に便利であることがテストされています。
Synced が実際の店舗の写真に基づいて生成したレンダリングは、かつては日本のアニメシリーズのスクリーンショットだと考えられていました。 先日の2019年のチューリング賞はコンピュータグラフィックスとピクサーの3Dアニメーションに授与されましたが、2Dアニメーションの方が面白いと思う人も多いかもしれません。宮崎駿や新海誠などの巨匠が手描きするアニメには魂が込められており、どの絵も壁紙になる。日本のアニメは全体的に2次元が中心となっている。 実際の画像を日本の漫画風の手描き画像に変換できるモデルがあったら本当にクールだと思います。最近、マシンインテリジェンスはこれらのモデルが実際に存在することを発見し、CartoonGAN から AnimeGAN まで、非常に興味深い画像を生成できることが分かりました。 AnimeGAN を実装し、事前トレーニング済みのモデルを提供する新しい TensorFlow プロジェクトがあります。つまり、ダウンロード後すぐに生成されたエフェクトを試すことができます。私たちは日本のアニメスタイルのファンとして、すぐに新しいプロジェクトを試してみました。 プロジェクトアドレス: https://github.com/TachibanaYoshino/AnimeGAN 元のプロジェクトで示された優れた例の多くは街のシーンですが、さまざまなシーンでも問題ないことがわかりました。以下は、私たちが試した元の画像と生成されたエフェクトです。生成された桜道の最初の写真を見ると、突然「千と千尋の神隠し」の中にいるような気分になりました。 文字だけに焦点を当てれば、変換効果も非常に優れています。新垣結衣さんの写真をAnimeGANモデルに入力してみたところ、以下のような不思議な画風になりました。アニメにそのまま使っても問題なさそうです。 元の GitHub プロジェクトでは、作者もたくさんの例を挙げています。上記は Synced を試した結果に過ぎません。試してみるのもよいでしょう。 アニメGANプロジェクト全体は、論文「AnimeGAN: 写真アニメーション用の新しい軽量 GAN」で提案された方法を実装しています。著者は論文の中で AnimeGAN を CartoonGAN および ComixGAN と比較しています。 図からわかるように、細部に関してはAnimeGANの方が上記2つの方法よりも優れています。色は比較的自然で、にじみ感もそれほど強くありません。最も顕著なのは 2 行目のレンダリングです。AnimeGAN を使用して生成されたコミックは、宮崎駿のスタイルに近いです。 方法の紹介 本プロジェクトのAnimeGANでは、AnimeGANが使用するジェネレーターネットワークとディスクリミネーターネットワークを以下に示します。モデル全体は従来の畳み込みニューラル ネットワークのように見えますが、インスタンス正規化と新しい LReLU 活性化関数を使用します。 アーキテクチャの詳細の更新に加えて、著者らは次の 3 つの新しい損失関数も提案しました。
これらの損失関数により、生成された画像のスタイルを実際の漫画スタイルに近づけることができます。 以下の表は、ACartoonGAN と AnimeGAN のモデル サイズと推論速度を比較したものです。 AnimeGAN は、パラメータが少なく推論速度が速い、比較的軽量な GAN であることがはっきりとわかります。 一般的に、新しく提案された AnimeGAN は、より少ないモデルパラメータを使用し、写真のスタイルを強化するためにグラム行列を導入する軽量な生成的敵対的モデルです。研究者らの方法では、トレーニングのために一連の実画像と一連の漫画画像が必要であり、これらの画像はペアで一致させる必要がないため、トレーニングデータは非常に簡単に入手できます。 プロジェクト測定このプロジェクトは Ubuntu 18.04 でテストされており、関連する依存環境は次のとおりです。
これらの依存関係は CV でよく使用される拡張ライブラリであると言えるため、さまざまな依存関係環境の競合を解決するために多くの労力を費やす必要はありません。ここで良いレビューをします。 以下は、このプロジェクトの詳細なトレーニングおよびテストのプロセスです。まず、AnimeGAN プロジェクトをローカルにクローンし、Jupyter ノートブックに入力します。
作業ディレクトリをAnimeGANに変更します。
次に、プロジェクト作成者が提供する事前トレーニング済みモデルをダウンロードし、vim download_staffs.sh を使用してシェル ファイルを作成し、次のコマンドを入力します。
保存して終了します。上記のコマンドは、事前トレーニング済みモデル、vgg19 重み、およびトレーニング データセットをそれぞれのディレクトリにダウンロードして保存します。ノートブックで実行:
これで準備はすべて完了です。次のコードを実行してモデルをトレーニングできます。
AnimeGAN のトレーニングプロセスを下の図に示します。 テストするときは、テスト画像を dataset/test/real ディレクトリに保存し、次のコードを実行する必要があります。
上記の出力が表示された場合、プログラムが正常に実行され、生成された結果が結果フォルダーに保存されたことを意味します。ご覧のとおり、P100 GPU で画像を生成するには約 2.3 秒かかります。 |
>>: 「アバター」の脳-脳インターフェースの性能は2~3桁向上した
AIGC の魔法の世界では、画像を「ドラッグ」することで、必要な画像を変更したり合成したりできます...
機械学習プラットフォームを構築する以前、iQiyi にはすでに比較的成熟したディープラーニング プラ...
[[413052]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
[[435896]]優れたパフォーマンスを得るにはモデルを大きくする必要がありますか?それは必ずし...
翻訳者 |ブガッティレビュー | Chonglouこの記事では、無料で使いやすい新しいクラウドIDE...
現在、人類は急速に人工知能の時代に突入しています。人工知能技術の急速な発展、モノのインターネット、ビ...
さて、一年で最も暑い時期、真夏が正式に到来しました。今年の猛暑は7月11日から8月19日までの40日...
[[414991]]この記事はWeChatの公開アカウント「Linux Kernel Things」...
ソートとは、もともと無秩序だったシーケンスを、順序のあるシーケンスに並べ替えることを意味します。ソー...