宮崎駿のアニメで新垣結衣を見たことがありますか?このオープンソースのアニメジェネレーターは、写真を数秒で手描きの日本のアニメに変換します

宮崎駿のアニメで新垣結衣を見たことがありますか?このオープンソースのアニメジェネレーターは、写真を数秒で手描きの日本のアニメに変換します

写真を撮るだけで、宮崎駿や新海誠などの日本のアニメ巨匠の手描き風に変換できます。アニメ画像を生成するために特別に設計されたこのGANは、非常に便利であることがテストされています。

[[320014]]

Synced が実際の店舗の写真に基づいて生成したレンダリングは、かつては日本のアニメシリーズのスクリーンショットだと考えられていました。

先日の2019年のチューリング賞はコンピュータグラフィックスとピクサーの3Dアニメーションに授与されましたが、2Dアニメーションの方が面白いと思う人も多いかもしれません。宮崎駿や新海誠などの巨匠が手描きするアニメには魂が込められており、どの絵も壁紙になる。日本のアニメは全体的に2次元が中心となっている。

実際の画像を日本の漫画風の手描き画像に変換できるモデルがあったら本当にクールだと思います。最近、マシンインテリジェンスはこれらのモデルが実際に存在することを発見し、CartoonGAN から AnimeGAN まで、非常に興味深い画像を生成できることが分かりました。

AnimeGAN を実装し、事前トレーニング済みのモデルを提供する新しい TensorFlow プロジェクトがあります。つまり、ダウンロード後すぐに生成されたエフェクトを試すことができます。私たちは日本のアニメスタイルのファンとして、すぐに新しいプロジェクトを試してみました。

プロジェクトアドレス: https://github.com/TachibanaYoshino/AnimeGAN

元のプロジェクトで示された優れた例の多くは街のシーンですが、さまざまなシーンでも問題ないことがわかりました。以下は、私たちが試した元の画像と生成されたエフェクトです。生成された桜道の最初の写真を見ると、突然「千と千尋の神隠し」の中にいるような気分になりました。

文字だけに焦点を当てれば、変換効果も非常に優れています。新垣結衣さんの写真をAnimeGANモデルに入力してみたところ、以下のような不思議な画風になりました。アニメにそのまま使っても問題なさそうです。

元の GitHub プロジェクトでは、作者もたくさんの例を挙げています。上記は Synced を試した結果に過ぎません。試してみるのもよいでしょう。

アニメGAN

プロジェクト全体は、論文「AnimeGAN: 写真アニメーション用の新しい軽量 GAN」で提案された方法を実装しています。著者は論文の中で AnimeGAN を CartoonGAN および ComixGAN と比較しています。

図からわかるように、細部に関してはAnimeGANの方が上記2つの方法よりも優れています。色は比較的自然で、にじみ感もそれほど強くありません。最も顕著なのは 2 行目のレンダリングです。AnimeGAN を使用して生成されたコミックは、宮崎駿のスタイルに近いです。

方法の紹介

本プロジェクトのAnimeGANでは、AnimeGANが使用するジェネレーターネットワークとディスクリミネーターネットワークを以下に示します。モデル全体は従来の畳み込みニューラル ネットワークのように見えますが、インスタンス正規化と新しい LReLU 活性化関数を使用します。

アーキテクチャの詳細の更新に加えて、著者らは次の 3 つの新しい損失関数も提案しました。

  • グレースケールスタイルの損失
  • グレースケールの敵対的損失
  • 色再現損失

これらの損失関数により、生成された画像のスタイルを実際の漫画スタイルに近づけることができます。

以下の表は、ACartoonGAN と AnimeGAN のモデル サイズと推論速度を比較したものです。 AnimeGAN は、パラメータが少なく推論速度が速い、比較的軽量な GAN であることがはっきりとわかります。

一般的に、新しく提案された AnimeGAN は、より少ないモデルパラメータを使用し、写真のスタイルを強化するためにグラム行列を導入する軽量な生成的敵対的モデルです。研究者らの方法では、トレーニングのために一連の実画像と一連の漫画画像が必要であり、これらの画像はペアで一致させる必要がないため、トレーニングデータは非常に簡単に入手できます。

プロジェクト測定

このプロジェクトは Ubuntu 18.04 でテストされており、関連する依存環境は次のとおりです。

  • Python 3.6.8
  • テンソルフロー GPU 1.8
  • オープンCV
  • tqdm
  • ナンピー
  • グロブ
  • argparse

これらの依存関係は CV でよく使用される拡張ライブラリであると言えるため、さまざまな依存関係環境の競合を解決するために多くの労力を費やす必要はありません。ここで良いレビューをします。

以下は、このプロジェクトの詳細なトレーニングおよびテストのプロセスです。まず、AnimeGAN プロジェクトをローカルにクローンし、Jupyter ノートブックに入力します。

  1. !git clone https://github.com/TachibanaYoshino/AnimeGAN  

作業ディレクトリをAnimeGANに変更します。

  1. インポートOS
  2.  
  3. os.chdir( 'AnimeGAN' )
  4.  
  5. 印刷(os.getcwd())

次に、プロジェクト作成者が提供する事前トレーニング済みモデルをダウンロードし、vim download_staffs.sh を使用してシェル ファイルを作成し、次のコマンドを入力します。

  1. URL=https: //github.com/TachibanaYoshino/AnimeGAN/releases/download/Haoyao-style_V1.0/Haoyao-style.zip  
  2.  
  3. ZIP_FILE=./checkpoint/Haoyao-style.zip
  4.  
  5. TARGET_DIR=./チェックポイント/saved_model
  6.  
  7. mkdir -p ./チェックポイント
  8.  
  9. wget -N $URL -O $ZIP_FILE
  10.  
  11. mkdir -p $TARGET_DIR
  12.  
  13. $ZIP_FILE を解凍 -d $TARGET_DIR
  14.  
  15. rm $ZIP_FILE
  16.  
  17. データセットURL=https: //github.com/TachibanaYoshino/AnimeGAN/releases/download/dataset-1/dataset.zip  
  18.  
  19. ZIP_FILE=./データセット.zip
  20.  
  21. TARGET_DIR=./データセット
  22.  
  23. rm -rf データセット
  24.  
  25. wget -N $日付セットURL -O $ZIP_FILE
  26.  
  27. $ZIP_FILE を解凍 -d $TARGET_DIR
  28.  
  29. rm $ZIP_FILE
  30.  
  31. VGG_FILE=./vgg19_weight/vgg19.npy
  32.  
  33. wget --load-cookies /tmp/cookies.txt "https://docs.google.com/uc?export=download&confirm=$(wget --quiet --save-cookies /tmp/cookies.txt --keep-session-cookies --no-check-certificate 'https://docs.google.com/uc?export=download&id=1U5HCRpZWAbDVLipNoF8t0ZHpwCRX7kdF' -O- | sed -rn 's/.*confirm=([0-9A-Za-z_]+).*/1n/p')&id=1U5HCRpZWAbDVLipNoF8t0ZHpwCRX7kdF" -O $VGG_FILE && rm -rf /tmp/cookies.txt

保存して終了します。上記のコマンドは、事前トレーニング済みモデル、vgg19 重み、およびトレーニング データセットをそれぞれのディレクトリにダウンロードして保存します。ノートブックで実行:

  1. !bash ダウンロード_staffs.sh

これで準備はすべて完了です。次のコードを実行してモデルをトレーニングできます。

  1. !python main.py --phase train --dataset Hayao --epoch 101 --init_epoch 1  

AnimeGAN のトレーニングプロセスを下の図に示します。

テストするときは、テスト画像を dataset/test/real ディレクトリに保存し、次のコードを実行する必要があります。

  1. !python test.py --checkpoint_dir checkpoint/saved_model --test_dir dataset/test/real --style_name H

上記の出力が表示された場合、プログラムが正常に実行され、生成された結果が結果フォルダーに保存されたことを意味します。ご覧のとおり、P100 GPU で画像を生成するには約 2.3 秒かかります。

<<:  ロボット警察がファンタジーを現実に変える

>>:  「アバター」の脳-脳インターフェースの性能は2~3桁向上した

ブログ    
ブログ    
ブログ    

推薦する

...

デジタル時代のパフォーマンス管理:現実と未来

デジタルパフォーマンス管理の変革デジタル目標設定パフォーマンス計画は、企業の繁栄戦略と業務を結び付け...

AIはIoTベースのDDoS攻撃を阻止できる

研究者らによると、人工知能はインターネットサービスプロバイダー(IPS)がDDoS攻撃に先手を打つの...

...

AIブーム下のレイアウトトレンド

2016年3月にアルファ碁が囲碁の世界チャンピオン、イ・セドルを破って以来、人工知能は大きな注目を集...

第14次5カ年計画を見据えて、我が国のロボット産業はどこに向かっているのでしょうか?

ロボットは製造業の「至宝」とみなされています。近年、人口ボーナスの継続的な減少と自動化生産の需要の継...

感染症予防・抑制において、サービスロボットは「必須」なのか?

人工知能の概念の普及に伴い、サービスロボット業界も近年ますます注目を集めています。資本市場のサービス...

AIファースト戦略はどこから始まるのでしょうか?

[[393200]] [51CTO.com クイック翻訳]人工知能は企業に競争上の優位性をもたらし...

...

AI時代のセキュリティ情勢にはどのような新たな変化が起こっているのでしょうか?

近年、世界の人工知能産業は急速な発展の勢いを見せており、セキュリティ状況はますます複雑になっています...

IoTとロボットの連携

明らかに、ロボット工学とモノのインターネットはまったく異なる分野です。しかし、両者が互いに成長し革新...

真実に近いですか? LK-99型超伝導はCu_2S構造相転移によって引き起こされる可能性が高く、中国科学院物理研究所の論文もここにあります。

昨日、北京大学量子材料センター(ICQM)の郭開珍、賈爽らがarXivに提出した論文には、同チームが...

OM5ファイバー:人工知能の時代を強力にサポート

進化し続けるテクノロジーの世界において、OM5 光ファイバー ケーブルは革新的なソリューションとして...