この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。 Nvidia の最新世代 1080 グラフィック カードを使用して、複雑なアートワークを 20 分で生成できますか? ニューラル ネットワークを始めるのが今やそれほど手頃になったのでしょうか? そうです、これはneural-style-ptと呼ばれるスタイル転送モデルで、Pytorch に基づいて実装され、オープンソース化されました。 このアルゴリズム モデルに関するトピックは、わずか 1 日前に Reddit に投稿され、約 2,000 回の閲覧を集めました。 Neural-style-pt は本当にクールで親しみやすいですか? 豊富な統合方法neural-style-pt は、論文「A Neural Algorithm of Artistic Style」の Pytorch 実装です。 この論文では、畳み込みニューラル ネットワークを使用して 1 つの画像のコンテンツと別の画像のスタイルを組み合わせるアルゴリズム、つまりよく知られている「スタイル転送」ネットワークを紹介しています。 たとえば、「Starry Night」のアート スタイルをスタンフォード大学のキャンパスの夜景にマッピングします。 または、特定の画像のさまざまな芸術的スタイルに基づいて、それらをターゲット画像に結合します。 「個別の」融合に加えて、複数のアート スタイルを 1 つの画像に統合することもできます。 左上から時計回りに、「星空」+「叫び」、「叫び」+「コンポジション セブン(ワシリー カンディンスキーの油絵)」、「座るヌード(モディリアーニの油絵)」+「コンポジション セブン」、「座るヌード」+「星空」のスタイルです。 スタイル転送を実行するときに、「-original_colors 1」コマンドを追加して、元の色を変更せずにスタイルのみを変更します。 1080 カードで実行できますか?バックエンドとオプティマイザーに応じて、アルゴリズムの実行速度は大きく異なります。 Tesla K80 で 512 ピクセルの画像を使用して 500 回の反復を行った場合の時間参照:
GTX 1080 では、同じベンチマーク時間はさらに速くなります。
1080 グラフィック カードの現在の販売価格を考慮すると、このしきい値は機械学習にとってすでに非常に魅力的であると言わざるを得ません。 デフォルトでは、neural-style-pt は畳み込みにバックエンドを使用し、最適化に L-BFGS を使用します。ただし、メモリを大量に消費します。以下の方法でメモリ使用量を削減できます。 cuDNN を使用するには、-backend cudnn を追加して cuDNN バックエンドを使用します。 ADAM を使用する場合は、L-BFGS の代わりに ADAM を使用するために -optimizer adam を追加します。 デフォルト設定では、neural-style-pt はシステム上で約 3.7 GB の GPU メモリを使用しますが、ADAM と cuDNN に切り替えると、GPU メモリのフットプリントが約 1 GB に削減されます。 始め方neural-style-pt をインストールするには、まず Pytorch を準備する必要があります。 次に、次のコマンドを使用してトレーニング済みのモデルをインストールできます。
インストール後、開始して試してみるのは非常に簡単です。1 行のコードで実現できます。
複数のスタイルを読み込む場合は、異なる画像ファイル名を区切る必要があります。
画像名には完全な URL パスを含める必要があることに注意してください。 これらが基本的な操作です。 neural-style-pt のもう 1 つの強力な機能は、複数の異なるコンピューティング デバイスを使用して高解像度の画像を処理できることです。 デバイスによって、ネットワーク レイヤーごとに計算結果が出力されます。 -gpuディレクティブを使用して、どの GPU および CPU デバイスを使用するかを制御し、-multidevice_strategy を使用して、デバイス間でレイヤーを分割する方法を制御できます。 たとえば、4 つの GPU を備えたサーバーでは、コマンド「-gpu 0,1,2,3」は、GPU 0、1、2、3 の順に処理することを意味します。 -multidevice_strategy 3,6,12 ディレクティブが同時に指定されており、最初の 2 つのレイヤーは GPU 0 で計算され、レイヤー 3 から 5 は GPU 1 で計算され、レイヤー 6 から 11 は GPU 2 で計算され、残りのレイヤーは GPU 3 で計算されることを示しています。 最大の出力解像度を実現するには、必要に応じて -multidevice_strategy を調整します。 以下は、8 つの Tesla K80 GPU を使用してサーバー上で生成された 4016 x 2213 解像度の画像です。 1080 グラフィック カードと「分散」コンピューティングの入門、クールで楽しい低敷居スタイルの転送ネットワーク、ぜひ試してみてください。 ポータル: |
<<: エッジコンピューティングは産業界でどのような用途に使われていますか?
>>: GIF 圧縮アルゴリズムの発明者が IEEE の最高栄誉賞を受賞
[[342437]]著者は、正確なタイミング タスクと遅延キュー処理機能を備えた、高同時実行シナリ...
この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...
科学技術の継続的な発展に伴い、人工知能は徐々に科学技術分野の主な研究方向になってきました。 「ロボッ...
【中国杭州、2020年5月25日】本日、「クリエイティブビジョン | インテリジェントな世界への目を...
先月、Kaggle の共同創設者兼 CTO である Ben Hamner 氏が、Kaggle、機械学...
[51CTO.comからのオリジナル記事]現在、疫病と政治環境の影響により、多くの不確定要素が重なり...
クラウド セキュリティと人工知能には長年にわたる関係があります。ほぼ 10 年にわたり、AI はパタ...
当社の機械学習ラボでは、数多くの高性能マシンで何万時間ものトレーニングを行って豊富な経験を蓄積してき...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
人工知能は将来の技術開発の最前線分野として、ディープラーニング、レコメンデーションエンジン、コンピュ...
最近では、GPT や LLaMA などの大規模言語モデル (LLM) が世界中で人気になっています。...