1 行のコードで AI モデルの推論速度が 10 倍に向上します。 Reddit の技術共有は「恥知らずな自己宣伝」として揶揄される

1 行のコードで AI モデルの推論速度が 10 倍に向上します。 Reddit の技術共有は「恥知らずな自己宣伝」として揶揄される

Reddit フォーラムでは、さまざまな AI テクノロジーについて頻繁に議論されています。最近、あるネットユーザーがオープンソース ライブラリを共有し、わずか数行のコードを追加するだけで、モデルの実行速度を 10 倍以上向上できると主張しました。

この記事のタイトルは「ほとんど誰も知らない AI モデルを簡単に最適化する方法」です。

すべてが普通に見えて、単なる技術共有の投稿に過ぎないが、ネットユーザーはそれを信じない。彼らはそれを恥知らずな「自己宣伝」行為だと思っている。

Reddit ではこのディスカッションスレッドに「恥知らずな自己宣伝」というラベルまで付けられている。

では、これは単なる技術共有なのでしょうか、それとも注目を集めるためのマーケティング キャンペーンなのでしょうか?

テクノロジーの共有に何か問題があるのでしょうか?

著者は投稿の中で、コードを数行追加するだけでモデルの実行速度を 10 倍以上に上げることができると書いていますが、その方法を知らない人もいるかもしれません。

彼はAI研究の現状を次のように要約した。

人工知能の応用は雨後の筍のように急速に成長しており、人工知能の世界に参入する人も増えています。筆者もAI軍の一員です。しかし問題は、開発者が AI、データのクリーニング、モデルのトレーニングにのみ焦点を当てていることです。ハードウェア、コンパイラ、コンピューティング、クラウドなどのバックグラウンドを持つ人はほとんどいません。その結果、開発者はソフトウェアの精度とパフォーマンスの向上に多くの時間を費やしますが、ハードウェアとソフトウェアの結合を誤って選択したために、その努力がすべて無駄になってしまいます。

この問題は長い間彼を悩ませていたため、彼と Nebuly の友人数名 (全員が MIT、ETH、EPFL で働いた経験を持つ) は、nebullvm と呼ばれるオープン ソース ライブラリに多大な労力を費やし、ハードウェアについて何も知らなくても、あらゆる開発者が DL コンパイラ テクノロジを使用できるライブラリを開発しました。

そのワークフローは、複数の DL コンパイラをテストし、AI モデルをマシン (GPU、CPU など) に最適なコンパイラを選択することで、DL モデルを 5 ~ 20 倍高速化することです。これらはすべて、わずか数行のコードで実行できます。

このライブラリもオープンソースです: https://github.com/nebuly-ai/nebullvm

ネットユーザーから多くのコメントを受け取った後、投稿者は投稿に声明を掲載した。彼によると、この投稿は、リリース以来 GitHub で非常に人気がある (初日だけで 250 を超えるスターを獲得) オープンソース ライブラリに関するものだったという。残念なことに、この投稿には「恥知らずな自己宣伝」というレッテルが貼られ、技術的な質問への回答は他のコメントに隠れてしまいました。

彼は、実際にライブラリを試した人たちに、この投稿にコメントするよう促している。

ユーザーレビュー

投稿者は、技術共有の投稿が期待した効果を得られず、むしろネットユーザーから「叱責」され、話題になることを予想していなかったようだ。

最も高い評価を与えたネットユーザーは、Reddit が今回のような明らかに自己顕示欲の強いマーケティング手法に対して何らかのルールを設けられるかどうか質問した。また、ルールの例も示しました。

AI は優れていますが、当社の [ここにプラットフォーム/ツール/ライブラリを挿入] を使用すると、[1-10] 倍 [より良く、より速く、より簡単に] 実行できます。

新しいライブラリについて学ぶのは好きですが、マーケティング担当者から学ぶのは嫌いです。

以下に返信したネットユーザーも、テクノロジーを理解していないテクノロジーメディアが多すぎると述べています。PyTorch で .cuda() を使用すると、モデルの速度が直接 1,000 倍に向上することを知らないのではないでしょうか。

そして、初期のコメントや「いいね!」はすべてオンライン荒らしによって購入されたのではないかと私は疑っています。

より率直なネットユーザーは、これは全くのゴミ情報であり、最近Redditで何が起こっているのか分からないと述べた。

一部のネットユーザーは、最近の別の投稿を例に挙げた。その投稿には931件の「いいね!」があったものの、高評価のコメントはほぼすべて否定的なものだった。

このプロジェクト全体は、私の友人や母が私がやっていると思っていることと、私が実際にやっていることのメモにすぎません。

経営陣や投資家にとって美しいビジュアルです。実際に働いている人にとっては、ほとんど意味がありません。ほとんどの開発者がコマンド ラインとテキストを使用する理由は、扱うデータが膨大であるため、ビジュアルは助けになるどころか邪魔になるからです。

一部のネットユーザーはこれに反対しています。このサブレディットに潜入して参加している人のうち、実際にMLを職業として働いていない人の割合がいかに高いかを考えると、学生やソフトウェアエンジニア、またはこのトピックに個人的に興味があり、ここで何かを盲目的に支持することで「コミュニティ」の一員であることを実感したいだけの人もたくさんいます。ただし、公平を期すために言うと、彼らは批判するのに必要な経験をあまり持っていない傾向があります。

別のネットユーザーは、この記事が広告であることは分かっているが、「彼らは間違ったツールを使って、もっと良い方法があると伝えている」ようなものだと言っているが、正直言って、上記の作業を行う人が十分にいるとは思えない。 SLA には必要ではないにもかかわらず、速度やコードのパッチ方法に取り組んでいる人が増えているように思います。パフォーマンスの分析にはそれほど多くの作業は必要ありません。主な理由は、多くの実践者がソフトウェア エンジニアリングのバックグラウンドを持ち、実行速度こそ目指して進歩できるものであると考えているからです。

一部のネットユーザーは、このプロジェクトは単にTensorRT(または他の既存のディープラーニングコンパイラ)を介してモデルを実行しているだけであり、実際には「何もないところから多くの問題を引き起こしている」と信じて、テクノロジーの核心についても議論しました。

怒り

GitHub ライブラリの Readme ファイルによると、nebullvm は、ユーザーが 1 行のコードで複数の DL コンパイラをテストし、DL モデルの推論速度を 5 ~ 20 倍に高めることができるオールインワン ライブラリです。

このリポジトリには、すべてのオープンソース AI コンパイラーを同じ使いやすいインターフェースに統合することを目的としたオープンソース プロジェクトであるオープンソース nebullvm パッケージが含まれています。

著者らは、彼らが設計したものは非常に使いやすいと述べています。DL モデルを入力するだけで、対象のハードウェアに最適化されたモデルの最適化バージョンが自動的に取得されます。

著者の知る限り、現在、市場にあるさまざまな DL コンパイラを組み合わせて、ユーザーのモデルに最適なコンパイラを見つけるオープン ソース ライブラリは存在しません。彼らは、このライブラリが、AI 開発者が過度の時間を費やすことなくモデルをより効率的に作成することをますます容易にすることに大きく貢献できると考えています。

現在サポートされているフレームワークには PyTorch と Tensorflow が含まれ、サポートされている DL コンパイラには OpenVINO (Intel マシン)、TensorRT (Nvidia GPU)、Apache TVM が含まれます。

使い方も非常に簡単で、まずはpipを使ってインストールします。

次に、nebullvm を使用して、torch または tensorflow モデルをインポートします。pyTorch を例にとると、わずか数行のコードで最適化を完了できます。

作者が提供する情報と GitHub スターの数によると、このライブラリは信頼できます。

Reddit のユーザーは AI モデルに関する誇張された宣伝を目にしすぎたため、やはり無実を主張する著者に対して怒りをぶつけたのかもしれない。科学は本質的に「事実から真実を探求すること」であり、このようにしてのみより良く発展することができるのです。

あなたはサイトの作成者ですか、それとも Reddit ユーザーですか?

<<:  空中戦における人工知能の応用

>>:  2つのセッション「チップ」提案:自動車用チップに焦点を当て、サプライチェーンを開放し、「ボトルネック」を突破する

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

RFID技術によるスマート製造

RFID 技術は、識別距離が長く、速度が速く、干渉に対する耐性が強く、複数のターゲットを同時に識別で...

人工知能の責任ある使用のための10の原則

AI の責任ある使用に関する包括的な原則は、信頼、公平性、説明責任を促進することです。人工知能 (A...

...

...

...

Nvidiaのアルゴリズムが破られ、RTX30シリーズはマイニング計算能力を100%回復:グラフィックカードの値下げは終わったのか?

GPUマイニングで米国証券取引委員会から罰金を科されたNvidiaは、最近、暗号化アルゴリズムが解...

...

中国科学院のチームは、最初のLLMモデル圧縮レビューを発表しました。剪定、知識蒸留、量子化技術の詳細な議論です。

最近、大規模言語モデル (LLM) はさまざまなタスクで優れたパフォーマンスを示しています。しかし、...

Salesforceは、20のコードタスクSOTAをリフレッシュするために、新しい基本的なLLMシリーズのエンコーダー/デコーダーコードT5 +を提案しています。

大規模言語モデル (LLM) は最近、コード レベルでのさまざまなダウンストリーム タスクで優れたパ...

2019 年にトップ CIO が AI を導入する 5 つの方法

多くの企業が AI のビジネスケースを模索し、経営陣の支援を求め、基本的な IT およびデータ機能を...

インタビュー必須:バックトラッキングアルゴリズムの詳細な説明

序文みなさんこんにちは。私はカタツムリを採っている小さな男の子です。 LeetCode を練習してい...

4Paradigm、ビジネス担当者がAIアプリケーションを開発できるようにする新しいAIプラットフォームツールをリリース

9月18日、2018年世界人工知能会議中。 Fourth Paradigm は、自動機械学習プラット...

自動生成された小さなデータセットを使用してエンコーディング LLM をトレーニングする方法

翻訳者 |李睿レビュー | Chonglou GPT-4 のような大規模言語モデル (LLM) はソ...