大量データのための2次パーソナルコネクションマイニングアルゴリズム(Hadoop実装)

大量データのための2次パーソナルコネクションマイニングアルゴリズム(Hadoop実装)

私は最近、Sina Weibo の「あなたに興味があるかもしれない人々」の間接的なフォローアップ推奨のように、2 次接続の関係をいくつか見つけ出す必要のあるプロジェクトに取り組みました。簡単な説明は次のとおりです。フォローしている N 人の人が XXX もフォローしています。

プログラムの実装で実際に探しているのは、User1 が 10 人のユーザー {User3、User4、User5、...、User12} をフォローしていて、セット UF1 として記録されている場合、UF1 のこれらのユーザーもフォロー セットを持ち、UF3 (User3 がフォローしているユーザー)、UF4、UF5、...、UF12 として記録されます。また、これらのセットの間には共通部分があり、ほとんどのセットの共通部分によって生成される共通部分こそが、探しているもの、つまり関心のある人々です。

2 次接続アルゴリズムの実装に関する情報をオンラインで検索しました。そのほとんどは、幅検索アルゴリズムを検索するだけで、ためらいの深さは 2 以内であると判断されています。このアルゴリズムは実際には非常に簡単です。最初のステップは、フォローしている人を見つけることです。2 番目のステップは、これらの人がフォローしている人を見つけることです。最後に、2 番目のステップの結果で最も頻繁に表示される 1 人以上の人を見つければ完了です。

しかし、他のユーザーがいる場合、計算中にこれらのユーザーのフォロー関係が必ずメモリに格納され、計算中に順番に検索されます。まず、明確な診断比較がなく、その効果はHadoopに基づくものほど良くないことを説明する必要があります。私はHadoopを使用して実装したいだけで、最近も学習しています。不備があれば、指摘してください。

まず、初期データはファイルであり、各行は ida+'\t'+idb という関係に従います。つまり、ida は idb に従います。次に、2 つの Map/Reduce タスクが使用されました。

Map/Reduce 1:任意のユーザーのフォロー セットとフォロー セットを検索します。図に示すように:

コードは次のとおりです。

マップタスク: 出力キー: 間接アクターAのID、値: フォロワーまたはフォローされている人のID

  1. 公共  void map(テキストキー、IntWritable値、コンテキストコンテキスト)IOException、InterruptedExceptionをスローします{
  2.         戻り値:
  3.          // 2つのユーザーIDを分割する 
  4. 文字列[] _key = Separator.CONNECTORS_Pattern.split(key.toString());
  5.          _key.length == 2 の場合{
  6.              // 「f」プレフィックスはフォローを意味し、「b」プレフィックスはフォローを意味します 
  7. context.write(新しいテキスト(_key[ 0 ])、新しいテキスト( "f" + _key[ 1 ]));
  8. context.write(新しいテキスト(_key[ 1 ])、新しいテキスト( "b" + _key[ 0 ]));
  9.               
  10.               
  11. }
  12. }

削減タスク: 出力キー: 間接アクター A の ID、値は 2 つの文字列で、最初の文字列はフォローしているすべての人々 (区切り文字で区切られています)、2 番目の文字列はフォローしている人々 (これも区切られています)

  1. &nbsp;&nbsp;&nbsp;&nbsp;保護されています  void Reduce(テキストキー、Iterable<TextPair> ペア、コンテキストコンテキスト)
  2.       IOException、InterruptedExceptionをスローします{
  3. StringBuilder の first_follow =新しいStringBuilder();
  4. StringBuilderのsecond_befollow =新しいStringBuilder();
  5.           
  6.          ( TextPair ペア: ペア){
  7. 文字列 id = pair.getFirst().toString();
  8. 文字列値 = pair.getSecond().toString();
  9.              id.startsWith( "f" )の場合{
  10. first_follow.append(id.substring( 1 )).append(Separator.TABLE_String);
  11. }それ以外  id.startsWith( "b" )の場合
  12. second_befollow.append(id.substring( 1 )).append(Separator.TABLE_String);
  13. }
  14. }
  15.           
  16. context.write(キー、新しいTextPair(first_follow.toString()、second_befollow.toString()));
  17. &nbsp;&nbsp;&nbsp;&nbsp;}

Separator.TABLE_String はカスタムセパレーターです。TextPair はカスタムの Writable クラスであり、キーを 2 つの値に対応させ、2 つの値を区別できるようにします。

Map/Reduce 2:前のステップで、B が A に続き、A が T に続く場合、T は B の 2 次接続であり、間接的な人物は A であると結論付けることができるので、同じ 2 次接続の異なる間接的な人物を見つけます。図に示すように:

コードは次のとおりです。

マップタスク: 出力時に、キーは2つの文字列レコードのIDで表される2次関係であり、値はこの2次関係によって生成された間接的な人物のIDです。

  1. 公共  void map(テキストキー、テキストペア値、コンテキストコンテキスト)はIOException、InterruptedExceptionをスローします{
  2. Map<String, String> first_follow = new HashMap<String, String>();
  3. Map<String, String> second_befollow = new HashMap<String, String>();
  4. 文字列 _key = key.toString();
  5. String[] follow = values.getFirst().toString().split(Separator.TABLE_String);
  6.           
  7. 文字列[] 秒 = values.getSecond().toString().split(Separator.TABLE_String);
  8.           
  9.          for (文字列 sf : follow){
  10.               
  11. first_follow.put(sf、_key);
  12.               
  13. }
  14.           
  15.          (文字列 ss : 秒){
  16.               
  17. second_befollow.put(ss, _key);
  18.               
  19. }
  20.           
  21.          ( Entry <String, String> f : first_follow.entrySet()){
  22.              ( Entry<String, String> b : second_befollow.entrySet()){
  23. context.write(新しいTextPair(f.getKey() 、b.getKey())、新しいText(key));
  24. }
  25. }
  26. &nbsp;&nbsp;&nbsp;&nbsp;}

削減タスク: 出力時、キーは引き続き 2 次関係であり、値はカンマで区切られたすべての間接的な人の ID です。

  1. 保護された  void Reduce(TextPair キー、Iterable<Text> 値、Context コンテキスト)
  2.      IOException、InterruptedExceptionをスローします{
  3.       
  4. StringBuilder 結果 = new StringBuilder();
  5.      for (テキストテキスト:値){
  6. 結果.append(text.toString()).append( "," );
  7. }
  8.       
  9. context.write(キー、新しいテキスト(resutl.toString()));
  10. }

この時点で、基本的に2次接続は発見されており、その後の処理は非常に簡単です。もちろん、2次接続に基づいて3次、4次も発見されます:)

オリジナルリンク: http://my.oschina.net/BreathL/blog/75112

<<:  アリの採餌とインターネットアルゴリズム

>>:  App Store 中国、検索アルゴリズムを最適化:名前による検索を復活

ブログ    
ブログ    

推薦する

IBM WatsonX: AIを企業の生産性の中核に

「象は踊れるの?」もちろん踊れますよ!かつての人々の考え方では、伝統的な大企業は、組織の肥大化や閉鎖...

...

...

CES 2024 優れた AI 製品

毎年開催されるコンシューマー・エレクトロニクス・ショー(CES)はテクノロジーの展示会として知られて...

異常検出のためのいくつかのグラフ分割アルゴリズム

セキュリティ分野では、アカウント取引の異常や異なるイベント間の相関関係など、さまざまなシナリオで「グ...

OpenAIの「コピー&ペースト」の背後にあるのは、盗作者が全てを無料で手に入れたいということ

今日では、盗作された記事や作品が出版され、盗作者がそれを無料で使用したり、利益を得たりすることは珍し...

人工知能ロボットの開発にはどのプログラミング言語を選択すればよいでしょうか?

この記事では、ロボット開発で使用される最も人気のあるプログラミング言語のトップ10を見ていきます。そ...

大規模言語モデルと知識グラフに関する共同研究のレビュー:2つの相補的な技術的利点

大規模言語モデル (LLM) はすでに強力ですが、さらに強力になる可能性があります。 LLM は、ナ...

...

英国の消費者団体が警告:AIチャットボットがオンライン詐欺をよりプロフェッショナル化

10月28日、英国の消費者団体Which?が現地時間金曜日に発表した最新の調査結果によると、犯罪者は...

OpenAIがChatGPTをアップデート:画像と音声入力をサポート

最近、OpenAI は ChatGPT の新バージョンのリリースを発表し、音声入力と画像入力という ...

3分で振り返る!2021年9月のロボット分野の重要な動向を概観

2021年9月に北京で開催された世界ロボットコンテストでは、さまざまな企業がロボット技術の研究開発に...

AIの4つのタイプについてお話しましょう

人工知能が流行するにつれ、人々はそれがどのように機能し、何ができるのかについて多くの疑問を抱いていま...

Vision Pro が 50 億ドルで売却され、ザッカーバーグは大喜び! Metaは500億ドルを燃やし、VR復活の希望がここにある

海外メディアの報道によると、2月2日の正式発売前に、AppleのVision Proはすでに20万台...

AIのジレンマをどう解決するか?

今日の大手企業が AI におけるいくつかの大きな課題をどのように克服しているか。概要:多くの企業はビ...