iPhoneのトランスフォーマーを公開: GPT-2アーキテクチャをベースにした単語セグメンターには、MITの卒業生が制作した絵文字が含まれています。

iPhoneのトランスフォーマーを公開: GPT-2アーキテクチャをベースにした単語セグメンターには、MITの卒業生が制作した絵文字が含まれています。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

Apple Transformerの「秘密」が愛好家によって明らかにされた。

大型モデルの波の中で、Apple のような保守的な企業でさえ、記者会見のたびに必ず「トランスフォーマー」に言及しています。

たとえば、今年の WWDC で、Apple は最新バージョンの iOS と macOS に Transformer 言語モデルを組み込み、入力メソッドにテキスト予測機能を提供すると発表しました。

Appleの関係者は詳しい情報を明かしていないが、テクノロジー愛好家たちは黙ってはいられない。

Jack Cook という人物が macOS Sonoma ベータ版を徹底的に調べ、多くの新しい情報を発見しました。

  • モデルアーキテクチャの点では、クック氏は Apple の言語モデルはGPT-2に基づいて構築されたものに近いと考えています。
  • トークナイザーに関しては、絵文字が目立ちます。

詳細を見てみましょう。

GPT-2アーキテクチャに基づく

まず、Apple の Transformer ベースの言語モデルが iPhone や MacBook などのデバイスでどのような機能を実現できるかを確認しましょう。

主に入力方法に反映されます。言語モデルでサポートされている Apple の組み込み入力方法は、単語予測とエラー修正の機能を実現できます。

Jack Cook はいくつかの特定のテストを実施し、この機能は主に単語の予測を実現することを発見しました。

△出典:ジャック・クックのブログ投稿

モデルは複数の単語を予測することがありますが、これは Gmail のオートコンプリート機能と同様に、文の意味が非常に明らかな場合のみです。

△出典:ジャック・クックのブログ投稿

それで、このモデルは正確にどこにインストールされているのでしょうか?徹底的な調査を行った結果、クック氏は次のように結論付けました。

予測テキスト モデルは、/System/Library/LinguisticData/RequiredAssets_en.bundle/AssetData/en.lm/unilm.bundle にあります。

理由は次のとおりです。

  1. unilm.bundle 内の多くのファイルは macOS Ventura (13.5) には存在せず、新しいバージョンの macOS Sonoma beta (14.0) にのみ表示されます。
  2. unilm.bundle には sp.dat ファイルがあり、これは Ventura と Sonoma ベータ版の両方にありますが、Sonoma ベータ版では明らかにトークナイザーのようなトークンのセットが更新されています。
  3. sp.dat 内のトークンの数は、unilm.bundle 内の 2 つのファイル (unilm_joint_cpu.espresso.shape と unilm_joint_ane.espresso.shape) と一致します。これら 2 つのファイルは、Espresso/CoreML モデルの各レイヤーの形状を記述します。

さらに、unilm_joint_cpu で説明されているネットワーク構造に基づいて、この人物は Apple モデルが GPT-2 アーキテクチャに基づいて構築されたと推測しました。

主にトークン埋め込み、位置エンコーディング、デコーダー ブロック、出力層が含まれます。各デコーダー ブロックには、gpt2_transformer_layer_3d などの単語があります。

△出典:ジャック・クックのブログ投稿

各層のサイズに基づいて、この人物は、Apple モデルには約 3,400 万のパラメーターがあり、隠れ層のサイズは 512 であると推測しました。つまり、GPT-2 の最小バージョンよりも小さくなります。

この人物は、これは主に、Apple が電力をあまり消費せず、高速かつ頻繁に動作できるモデルを望んでいるためだと考えている。

Apple は WWDC で「iPhone はキーがクリックされるたびにモデルを 1 回実行する」と公式に発表しました。

ただし、これは、このテキスト予測モデルが文や段落をうまく完成できないことも意味します。

△出典:ジャック・クックのブログ投稿

モデルアーキテクチャに加えて、Cook 氏はトークナイザーに関する関連情報も掘り起こしました。

彼は、unilm.bundle/sp.dat で 15,000 個のトークンのセットを発見しました。その中には100 個の絵文字が含まれていました。

クックが明かすクック

このクックはあのクックではないが、彼のブログ投稿は公開されるや否や大きな注目を集めた。

彼の調査結果に基づいて、ネットユーザーたちは、Appleがユーザーエクスペリエンスと最先端のテクノロジーアプリケーションの間でどのようにバランスを取っているかについて熱く議論した。

ジャック・クック氏自身について言えば、彼はMITでコンピューターサイエンスの学士号と修士号を取得し、現在はオックスフォード大学でインターネット社会科学の修士号取得を目指しています。

以前は、NVIDIA でインターンとして働き、BERT などの言語モデルの研究に注力していました。彼はニューヨークタイムズ紙で自然言語処理の上級研究エンジニアでもありました。

<<:  GPT-4よりも優れた20億パラメータモデルは、ほぼ100%の精度で算術問題を解く

>>:  国産大型モデルの推論能力がGPT-3.5を超えた! OpenAI評価リストの第1層に入る

推薦する

...

...

AIがITスキルと人材の需要をどのように変えているのか

AI は急速に日常のビジネス運営に不可欠な要素になりつつあり、すでに運用プロセスの改善、顧客サービス...

...

PythonでChatGPT APIを使用してリアルタイムデータを処理する方法

翻訳者 |李睿レビュー | Chonglou OpenAI が立ち上げた GPT は現在、世界で最も...

...

デアデビルが来た!バットセンスAIは、スマートフォンが音を聞いて3D画像を生成できるようにする

英国の科学者たちは、スマートフォンやノートパソコンなどの日常的な物に、デアデビルと同じくらい強力なコ...

TensorFlow2 を使用してアラビア語の手書き文字データセットを認識する方法を説明します

[[405478]]このチュートリアルでは、TensorFlow (Keras API) を使用して...

人工知能は私たちの仕事を奪うのでしょうか?北京大学の教授2人は次のように解釈した。

[[317607]]人工知能(AI)とは、人間と同等かそれ以上の知覚、認知、行動などの知能を機械に...

人工知能は 5 つの主要な地球規模の問題に解決策をもたらす | ダボス ブログ

[[183562]]人々は常に人工知能について多くの懸念を抱いています。人工知能は私たちの仕事にとっ...

2019年に注目すべき9つのAIトレンド

人工知能は最近テクノロジーの世界で話題になっています。それは人々の生活を変えただけでなく、さまざまな...

ニューラルスタイル転送アルゴリズムで絵を描くことを学習する人間は、芸術分野で人工知能に負けるのでしょうか?

人工知能はますます多用途になり、すでに私たちの仕事のすべてを人工知能が引き継ぐことができるようです。...

ジャック・マー氏:教育はデジタル時代に合わせて変えなければならない、そうでなければ子どもたちは機械と競争できなくなる

9月23日、ジャック・マー氏は国連総会で、デジタル時代を理解し、参加し、受け入れるためには教育改革が...

AIは黄金時代を迎えているのか、それとも冬を迎えようとしているのか?

人工知能開発の世界的なブームは今も急速に進んでおり、止まる気配はありません。現在、数十カ国が経済成長...

パフォーマンスは 5000 個の H100 でトレーニングされた GPT-4 に近いです。 DeepMindが新世代の大規模モデルを共同開発

最近、InflectionAI は新しい AI モデルをリリースしました。さらに衝撃的なのは、Inf...