WebGPT について簡単に説明してください。学びましたか?

WebGPT について簡単に説明してください。学びましたか?

原作者: エベネザー・ドン

元のアドレス: https://blog.logrocket.com/introduction-webgpt/

翻訳:イーチュアン

Web アプリケーションがデバイスのグラフィックス プロセッシング ユニット (GPU) に直接アクセスできるようにする新しい API である WebGPU の導入により、Web 開発は興味深い方向に進んでいます。 GPU は複雑な計算に優れているため、この進歩は重要です。

WebGPU の可能性を示すプロジェクトの 1 つが WebGPT です。これは、WebGPU API の機能を紹介するために設計された、JavaScript と HTML で記述されたシンプルなアプリケーションです。

この記事では、WebGPT が重要な理由と、ネイティブおよびブラウザで WebGPT を実装する方法について説明します。

WebGPT と WebGPU とは何ですか?

WebGPT の実際の実装に入る前に、舞台裏でどのように動作するかを簡単に説明しましょう。

WebGPT[https://github.com/0hq/WebGPT]は、シーケンスデータを効率的に処理するように設計された特定のタイプの機械学習モデルであるTransformerモデルのJavaScriptおよびHTML実装です。自然言語処理 (NLP) では、シーケンス データは通常、単語や文字の順序が意味を決定づける重要なテキストを指します。シーケンスの各部分は全体と同様に重要です。

Transformer モデルは、NLP シーケンス データの処理に適した機械学習モデルです。これらのモデルは、GPT (Generative Pretrained Transformer) を含む多くの最先端の自然言語処理モデルの基礎を形成します。

WebGPT の Transformer モデルは、Web アプリケーションがデバイスの GPU にアクセスして使用できるようにする API である WebGPU と連携するように設計されています。 GPU は、機械学習モデルに必要なタイプの並列計算を実行するのに特に優れているため、WebGPT にとって強力なリソースとなります。

WebGPU が登場する前は、アプリケーションは主にデバイスの中央処理装置 (CPU) か、WebGL などの効率の低い古い API に依存する必要がありました。対照的に、WebGPT は、WebGPU API を使用してブラウザーで実行するように明示的に設計された Transformer モデルを使用します。

WebGPT は入力を受け取ると、Transformer モデルを使用してデータを処理します。 WebGPU API の助けを借りて、ユーザーのデバイス上でローカルに計算を実行できます。結果はブラウザに直接返されるため、高速かつ効率的な実行が可能になります。

このような強力な機械学習モデルをブラウザに導入すると、Web 開発に次のような大きな影響がもたらされます。

  • リアルタイムデータ処理: クライアント側で計算を行える場合、最小限の遅延でリアルタイムデータ処理が可能になります。これにより、インタラクティブ ツールやゲームからリアルタイム分析まで、さまざまなアプリケーションのユーザー エクスペリエンスを変革できます。
  • プライバシーの強化: データ処理はユーザーのデバイス上でローカルに行われるため、機密性の高いデータをサーバーに送信する必要がありません。これは、個人情報や機密データを扱うアプリケーションにとって大きな変化をもたらし、ユーザーの信頼とプライバシーを強化する可能性があります。
  • コスト効率: 企業は、コンピューティング負荷をサーバーからクライアントに移すことで、サーバー コストを節約できます。これにより、中小企業や個人の開発者が高度な機械学習機能を利用できるようになります。

WebGPTの実装

WebGPT は使いやすいように設計されており、実行には HTML ファイルと JavaScript ファイルのセットのみが必要です。ただし、WebGPU はかなり新しい技術であるため、WebGPU 対応のブラウザ [https://caniuse.com/webgpu] が必要になります。

2023 年 7 月現在、Chrome v113 は WebGPU をサポートしています。もう 1 つの方法は、互換性を確保するために Chrome Canary または Edge Canary をインストールすることです。

ブラウザでWebGPTを実行する

WebGPT は、https://www.kmeans.org のデモ Web サイトで直接試すことができます。モデルの重みをリモートで読み込むと、ローカルで読み込むよりも遅くなる可能性があるため、応答性を高めるには、可能であれば WebGPT をローカルで実行することをお勧めします。

WebGPTをローカルで実行する

WebGPT をローカルで実行するには、次の手順に従います。

  1. WebGPT リポジトリのクローンを作成します。ターミナルで次のコマンドを実行して、リポジトリをクローンできます。
 git clone https://github.com/0hq/WebGPT.git
  1. Git LFS をインストールします。リポジトリ [https://blog.logrocket.com/efficiently-manage-large-files-git-with-git-lfs/] をクローンした後、Git LFS を使用してモデル ファイルをダウンロードする必要があります。Git LFS は、Git リポジトリに大きなファイルを保存できる Git 拡張機能です。ローカル マシンに Git LFS をインストールし、ターミナルで WebGPT ディレクトリに移動して次のコマンドを実行します。
 git lfs install
  1. モデル ファイルをダウンロードします。その後、次のコマンドを実行してモデル ファイルをダウンロードします。
 git lfs pull
  1. ローカル サーバーで WebGPT ファイルを起動します。シンプルな HTTP サーバーまたは Visual Studio Code 用の Live Server などのツールを使用できます。
  2. ブラウザで WebGPT ページを開きます。WebGPT を実行しているローカル サーバーの URL に移動します。次のようなページが表示されます。

写真

モデルの重みをロードするには、いずれかの「モデルのロード」ボタンをクリックします。その後、入力ボックスにテキストを入力し、「生成」をクリックすると、入力に基づいてテキストが生成されます。

写真

カスタム WebGPT モデルの使用

WebGPT には、小さな GPT-Shakespeare モデルと 1 億 1,700 万のパラメータを持つ GPT-2 の 2 つの組み込みモデルがあります。カスタム モデルを使用する場合は、リポジトリ [https://github.com/0hq/WebGPT] の other/conversion_scripts スクリプト ディレクトリを確認して、PyTorch モデルを WebGPT が使用できる形式に変換してください。

こちらが当社のカタログです:

写真

WebGPUの課題と制限

WebGPT は WebGPU 上に構築されているため、WebGPU の課題と制限を理解することが重要です。 WebGPU は有望なテクノロジーですが、まだ比較的新しい API であるため、克服すべき課題がいくつかあります。これには次のようなものがあります:

  • ブラウザのサポート不足: 現在、すべてのブラウザが WebGPU をサポートしているわけではなく、サポートしているブラウザでも完全にはサポートされていない可能性があります。これにより、WebGPU アプリケーションの開発と展開が困難になり、一般公開することは困難になります。
  • 複雑さ: WebGPU は複雑な API であり、学習や使用が難しい場合があります。これは、低レベルのグラフィックス API に精通していない開発者にとっては参入障壁となる可能性があります。
  • パフォーマンス: WebGPU は、特に古いハードウェアでは、WebGL よりも遅くなる場合があります。これは、WebGPU が低レベルの API であり、シェーダーをコンパイルしてグラフィックス パイプラインをセットアップするのに時間がかかる可能性があるためです。

GPTと他の変圧器モデルの将来

GPT や同様のモデルは、計算要件が高いため、主にサーバー上で実行されてきましたが、WebGPT は、これらのモデルをブラウザーで直接実行できることを実証しており、サーバーベースのセットアップに匹敵するパフォーマンスを提供します。

WebGPU などのテクノロジーや WebGPT などのプロジェクトによって提供される機能により、GPT などのトランスフォーマー モデルの使用を大幅に拡張できます。技術が成熟し、最適化が改善されるにつれて、より大きなモデルがブラウザでスムーズに実行されるようになるでしょう。

これにより、より洗練されたチャットボットから強力なリアルタイムテキスト分析および生成ツールまで、Web アプリケーションにおける高度な AI 機能の使いやすさが向上し、トランスフォーマー モデルの研究開発も加速される可能性があります。これらのモデルをより簡単に、より安価に導入することで、より多くの開発者や研究者がモデルを試し、改善する機会が得られます。

要約する

WebGPU を介して高度な機械学習モデルをブラウザに導入することで、開発者に多くの機会がもたらされ、Web アプリケーションがより強力になり、応答性が向上し、プライバシーに重点を置いた未来のビジョンが提示されます。

この技術はまだ比較的新しいため、パフォーマンスの最適化や大規模モデルの安定性の確保などの課題を克服する必要がありますが、潜在的なメリットは大きいです。開発者がこれらのツールを採用し、実験し始めると、WebGPT やブラウザ内機械学習を活用した新しい Web アプリケーションなど、より印象的な実装が登場することが期待できます。

<<:  清華大学の「自然言語プログラミング成果物」が利用可能になりました! 100以上のプログラミング言語をサポートし、効率性が向上しました

>>:  Google はビッグモデルを使用してスーパーアシスタントを書き換え、従業員を解雇して組織を再編して進歩を推し進めています。

ブログ    

推薦する

ボストン・ダイナミクスのロボット犬が再び進化:自分でルートを計画することを学習

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

自動運転システムのテストに関する簡単な説明

1. 自動運転システムレベルテストの基本理論1.1 自動運転テストシナリオの構成1.1.1 フレーム...

自然言語処理がビジネスインテリジェンスの未来である理由

[[187102]] Siri に道順を尋ねるたびに、複雑なコード列がアクティブ化され、「Siri」...

人工知能を通じて「自分を知る」

2016年、AlphaGoが人間のチェスプレイヤーであるイ・セドルを破り、人工知能に関する研究と考...

...

触覚がこんなにリアルになったのは初めてです!南カリフォルニア大学の2人の中国人博士が「触覚知覚」アルゴリズムを発明した

電子技術の発達により、私たちはいつでもどこでも「視聴覚の饗宴」を楽しめるようになり、人間の聴覚と視覚...

ハイエンドチップはインテリジェント運転の問題を解決できるでしょうか?

この数か月の「影響」を経て、誰もが半導体不足の事実を十分に認識したと思います。2020年12月以来、...

...

新型コロナウイルスはAIに影響を与えるか?人工知能は人間の介入なしには機能しない

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

人工知能はまだ長い道のりを歩んでいる

過去2年間で、「スマートホーム」はほぼすべての家電メーカーが必ず話題にし、自社製品になくてはならない...

...

データが増えるほど、AIの意思決定モデルは脆弱になる

データは、人工知能システムを構築するために必要な重要なインフラストラクチャです。データは、AI シス...

人工知能のコミュニケーション:コンテキストは業界マネージャーにとって成功への道

SymphonyAI のマーケティング責任者として、私は企業における人工知能 (AI) のあらゆるア...

ハードコア! CES 2021 アワード: 労働者は仮想人間、口紅は AI アルゴリズムを追加、ロボットは毛皮で覆われる

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...