トレーニング時間とパラメータの数は100分の1に削減され、ラベルは予測に直接使用され、GNNを超えるパフォーマンスを実現

トレーニング時間とパラメータの数は100分の1に削減され、ラベルは予測に直接使用され、GNNを超えるパフォーマンスを実現

従来のラベル伝播法とシンプルなモデルを組み合わせると、一部のデータセットでは現在の最適な GNN のパフォーマンスを上回ることができます。これはコーネル大学と Facebook の共同研究です。この新しい方法は、現在の SOTA GNN のパフォーマンスに匹敵するだけでなく、パラメータがはるかに少なく、実行速度が桁違いに高速です。

グラフ ニューラル ネットワーク (GNN) は、グラフ学習の主な技術です。しかし、GNN の成功の秘密や、その優れたパフォーマンスが必然であるかどうかについては、まだほとんどわかっていません。最近、コーネル大学と Facebook の研究では、多くの標準的なトランスダクティブ ノード分類ベンチマークにおいて、現在の最高の GNN のパフォーマンスを上回るかそれに匹敵する新しい方法が提案されました。

このアプローチは、グラフ構造を無視する浅いモデルと、ラベル構造の相関関係を活用する 2 つの簡単な後処理ステップ ((i)「エラー相関」: トレーニング データの残差を伝播してテスト データのエラーを修正する、(ii)「予測相関」: テスト データの予測を平滑化する) を組み合わせたものです。研究者はこのステップを「Correct and Smooth (C&S)」と呼んでおり、後処理ステップは、以前のグラフベースの半教師あり学習方法の標準的なラベル伝播 (LP) 手法を単純に変更することによって実現されます。

この方法は、複数のベンチマークで現在の最適な GNN のパフォーマンスを上回るかそれに近づきますが、パラメーターがはるかに小さく、後者よりも数桁高速に実行されます。たとえば、OGB-Products におけるこの方法のパフォーマンスは SOTA GNN のパフォーマンスを上回りますが、パラメータ数は後者の 1/137 で、トレーニング時間は後者の 1/100 です。この方法のパフォーマンスは、ラベル情報を学習アルゴリズムに直接組み込むことで、大幅なパフォーマンスの向上を簡単に達成できることを示しています。この方法は、大規模な GNN モデルにも組み込むことができます。

紙の住所

GitHubアドレス

グラフニューラルネットワークの落とし穴

コンピューター ビジョンと自然言語処理の分野でニューラル ネットワークが大きな成功を収めたことを受けて、グラフ ニューラル ネットワークがリレーショナル データの予測に使用されています。 Open Graph Benchmark などのモデルでは大きな進歩がありました。新しい GNN アーキテクチャの設計アイデアの多くは、言語モデル (注意など) や視覚モデル (深層畳み込みニューラル ネットワークなど) の新しいアーキテクチャから採用されています。ただし、これらのモデルが複雑になるにつれて、パフォーマンスの向上を理解することが重要な課題となり、これらのモデルを大規模なデータセットに拡張することが難しくなります。

新しい方法: ラベル情報 + シンプルなモデル

この論文では、より単純なモデルを組み合わせることでどのようなパフォーマンスが達成できるかを調査し、特にトランスダクティブノード分類におけるグラフ学習のパフォーマンスを向上させる機会を理解することに重点を置いています。

研究者らは、3 つの主要部分から構成されるシンプルなパイプライン (図 1 を参照) を提案しました。

  • グラフ構造を無視するノード機能 (MLP や線形モデルなど) を使用して実行される基本予測。
  • トレーニング データの不確実性をグラフ全体に伝播して基本予測を修正する修正ステップ。
  • スムーズなプロット予測結果。

ステップ 2 と 3 は、グラフベースの半教師あり学習の従来のアプローチ、つまりラベル伝播を使用する後処理ステップです。

本研究では、これらの古典的なアイデアを改良し、新たに導入することで、複数ノード分類タスクで大規模な GNN モデルを上回る SOTA パフォーマンスを達成しました。このフレームワークでは、グラフ構造はパラメータの学習には使用されず、後処理メカニズムとして使用されます。このシンプルさにより、モデルのパラメータとトレーニング時間が桁違いに削減され、大規模なグラフにも簡単に拡張できます。さらに、この手法を SOTA GNN と組み合わせることで、ある程度のパフォーマンス向上を実現することもできます。

この方法におけるパフォーマンス向上の主な要因は、予測にラベルを直接使用することです。これは新しいアイデアではありませんが、GNN ではほとんど使用されません。研究では、単純なラベル伝播(特徴を無視)でも多くのベンチマークで優れた結果を達成できることがわかりました。これにより、予測力の 2 つのソースを組み合わせる動機が生まれます。1 つはノード機能 (グラフ構造を無視) から、もう 1 つは予測で既知のラベルを直接使用することです。

具体的には、この方法ではまず、グラフ学習に依存しないノード機能に基づく基本予測子を使用します。次に、2 種類のラベル伝播 (LP) が実行されます。1 つは相関エラーをモデル化して基本予測を修正するもので、もう 1 つは最終予測を平滑化するものです。研究者たちは、これら 2 つの方法の組み合わせを「Correct and Smooth (C&S、図 1 を参照)」と呼びました。 LP は後処理ステップに過ぎず、パイプラインはエンドツーエンドでトレーニングされません。さらに、グラフは後処理ステップでのみ使用され、前処理ステップで機能を強化するために使用されますが、基本予測には使用されません。これにより、この方法は標準の GNN モデルよりもトレーニングが速くなり、よりスケーラブルになります。

この研究では、LP とノード機能の両方の利点を活用し、これらの補完的な信号を組み合わせて優れた予測結果を得ています。

実験

この方法の有効性を検証するために、研究者らは、Arxiv、Products、Cora、Citeseer、Pubmed、Email、Rice31、US County、wikiCS の 9 つのデータセットを使用しました。

ノード分類の予備結果

下の表 2 は関連する実験結果を示しています。研究者らは次のような重要な発見をしました。まず、本論文で提案した C&S モデルを使用すると、LP 後処理ステップで大きなメリットが得られます (たとえば、Products データセットでは、MLP の基本的な予測精度が 63% から 84% に向上します)。次に、C&S フレームワークを使用したプレーン線形モデルのパフォーマンスは、多くの場合、プレーン GCN よりも優れており、学習可能なパラメータのない LP メソッドのパフォーマンスは通常、GCN と同等です。これらの結果は、特徴量を使用するだけで、関連性をグラフに直接組み込む方がよい場合が多いことを示唆しています。最終的に、C&S モデルのバリアントは、製品、Cora、電子メール、Rice31、および US County の 5 つのデータセットで、一般に SOTA よりも大幅に優れたパフォーマンスを発揮します。他のデータセットでは、最高のパフォーマンスを示す C&S モデルと SOTA のパフォーマンスの間に大きなギャップはありません。

より多くのタグを使用してパフォーマンスをさらに向上させる

以下の表 4 に結果を示し、2 つの重要な発見を強調しています。まず、多くのデータセットで優れたパフォーマンスを達成したい直接ノード分類実験では、大規模でトレーニングに費用のかかる GNN モデルは実際には必要ありません。次に、従来のラベル伝播方法と単純な基本予測子を組み合わせると、これらのタスクでグラフ ニューラル ネットワークよりも優れたパフォーマンスを発揮できます。

トレーニング速度が速く、既存のGNNを上回るパフォーマンス

GNN や他の SOTA ソリューションと比較すると、この論文の C&S モデルでは必要なパラメータがはるかに少なくなる傾向があります。下の図 2 に示すように、研究者は OGB-Products データセットのパラメータとパフォーマンス (精度) の変化を示す曲線をプロットしました。

パラメータ数の削減に加えて、実際のメリットはトレーニング速度が速くなることです。研究者は基本的な予測にグラフ構造を使用しなかったため、C&S モデルは他のモデルと比較して同等の精度を維持しながら、桁違いに速いトレーニング速度を達成することがよくありました。

具体的には、OGB-Products データセットの SOTA GNN と比較して、線形ベース予測子を備えた C&S フレームワークは、トレーニング時間が 1/100 に短縮され、パラメータ数が 1/137 に削減され、より高い精度を示しています。

パフォーマンスの視覚化

C&S モデルのパフォーマンスをよりよく理解するために、研究者は、下の図 3 に示すように、米国の郡のデータセットで予測結果を視覚化しました。予想どおり、残差の関連性は、近隣の郡が関連情報を提供するノードでは正しい傾向があります。

<<:  西アフリカの牧畜民は飢餓危機と戦うためにAIを活用

>>:  小さな機械学習: 次の AI 革命

ブログ    
ブログ    

推薦する

CVサークル対決:GoogleがViTGANを提案、GANをトレーニングするためにビジュアルトランスフォーマーを使用

[[411040]]畳み込みニューラル ネットワーク (CNN) は、その強力な畳み込み機能とプーリ...

ディープラーニングの台頭から10年:OpenAIのイノベーターたち

AlexNet、AlphaGo、GPT、CLIP、DALL-E、Codex、これらはAIの世界でセン...

ロボット犬の悩み:ネットセレブの研修生になるのは簡単だが、ビジネスの研修生になるのは難しい

ニュージーランドの広大な草原で、羊の群れがのんびりと散歩しながら草を食べており、その後ろを牧羊犬が追...

フロントエンドインテリジェンスは、AIがセキュリティに着地するための第2の足掛かりになりつつある

近年、セキュリティ業界のデータ量は飛躍的に増加しており、バックエンド サーバーはますます多くのデータ...

150億のパラメータを持つ、史上最大のビジュアルモデル「V-MoE」の全コードをGoogleがオープンソース化

昨年 6 月に Google Brain チームが発表した 43 ページの論文「Scaling Vi...

ガートナー:テクノロジープロバイダーの33%が2年以内にAIに100万ドル以上を投資する

ガートナーの新しい調査*によると、人工知能 (AI) 技術計画を持つテクノロジーおよびサービス プロ...

フェムテック:女性が期待できること

フェムテックとは、女性の健康に焦点を当てたテクノロジーツールに適用される用語です。この分野には、不妊...

Metaの最新自社開発チップの結果が明らかに、7nmプロセス、RISC-V CPUを統合

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

AIエージェントを実装するには? 6 枚の写真 4090 Magic Llama2: タスクを分割して 1 つのコマンドで関数を呼び出す

AIエージェントは今話題になっています。OpenAIの応用研究ディレクターであるLilian Wen...

マルチタスクでSOTA、UBCを実現 Googleなどが3Dポイントクラウド向けの教師なしカプセルネットワークを提案

これは、3D ポイント クラウド用に提案された教師なしカプセル アーキテクチャであり、3D ポイント...

2020 年に AI、分析、データ ガバナンスに影響を与える 5 つのトレンド

企業レベルの人工知能は、まさに臨界質量に達しました。 AI があらゆるビジネスの主要な構成要素となる...

Megvii Technologyがロボット協調ネットワーク頭脳「Hetu」をリリース、エコシステムの改善に20億元を投資

現在、モノのインターネットの将来の発展方向は非常に明確であり、それが AIoT です。 AIは頭脳で...

写真にピクセルレベルの透かしをひっそり追加: AI による芸術作品の「盗作」を防ぐ方法が発見されました

オープンソースのAI画像生成モデル「Stable Diffusion」のリリース以来、デジタルアート...

中国科学院自動化研究所は、科学サブジャーナル「自己組織化バックプロパゲーションがネットワーク学習効率を向上」を出版した。

[[430306]]人工知能の分野では、現在人工ニューラルネットワークで広く使用されているバックプ...