翻訳者 | ブガッティ レビュー | Chonglou ChatGPT は、ここ数か月で大きな注目を集めている人工知能(AI)言語モデルです。人気のあるバージョンはGPT -3.5とGPT-4 の2 つです。 GPT-4 はGPT-3.5のアップグレード版であり、生成される回答はより正確です。しかし、 ChatGPTの主な問題は、オープンソースではないことです。つまり、ユーザーはソースコードを表示したり変更したりすることはできません。これにより、カスタマイズ、プライバシー、 AIの民主化など多くの問題が発生します。 ChatGPTのように機能するが、無料でオープンソースであり、 CPUリソースの消費が少ないAI音声チャットボットが必要です。この記事で紹介したアルパカLoRAもそんなAIモデルです。この記事を読んだ後、理解が深まり、 Pythonを使用してローカル マシンで実行できるようになります。まず、 Alpaca A oRAとは何かについて説明しましょう。 アルパカ LoRA の定義Alpacaはスタンフォード大学の研究チームによって開発されたAI言語モデルです。 Metaの大規模言語モデルLLaMAを使用します。 OpenAIのGPT ( text-davincii-003 )を使用して、 70 億のパラメータを持つLLaMAモデルを微調整します。学術・研究コミュニティでは無料で使用でき、必要なコンピューティングリソースも非常に少なくなります。 チームはLLaMA 7Bモデルから始めて、 1兆個のトークンで事前トレーニングしました。彼らは、手動で記述された175 個のコマンドと出力のペアから始めて、 ChatGPTのAPIを使用してさらに多くのペアを生成しました。彼らは、 LLaMAモデルをさらに微調整するために52,000 件のサンプル会話を収集しました。 LLaMAモデルには、 70億パラメータ、 130億パラメータ、300億パラメータ、 650億パラメータなど、いくつかのバージョンがあります。 Alpaca は、 70億パラメータ、 130億パラメータ、 300億パラメータ、 650億パラメータのモデルに拡張できます。 図1 Aplaca 7Bアーキテクチャ Alpaca-L o RAはStanford Alpacaの小型バージョンで、消費電力が少なく、 Raspberry Pieなどのローエンドデバイスでも実行できます。 Alpaca-LoRA は、 Low Rank Adaptation ( LoRA )を使用して、メモリ消費を抑えながら大規模モデルのトレーニングを高速化します。 Alpaca LoRA Python 実装ローカルマシン上でAlpaca-Lora を実行するためのPython環境を作成します。このモデルを実行するにはGPUが必要です。 CPU では実行されません(または出力が非常に遅くなります) 。 70億パラメータのモデルを使用する場合は、少なくとも12 GB のメモリが必要になります。 130億パラメータまたは300億パラメータのモデルを使用する場合は、より多くのメモリが必要になります。 GPU をお持ちでない場合は、 Google Colabで同じ手順を実行できます。記事の最後に Colab リンクが添付されています。 Alpaca-LoRAのこのGitHubコード リポジトリに従います。 1. 仮想環境を作成するすべてのライブラリを仮想環境にインストールします。この手順は必須ではありませんが、推奨されます。次のコマンドは Windows オペレーティング システムに適用できます。 (Google Colab の場合、この手順は必要ありません)。
2. GitHubコードリポジトリをクローンするここで、 Alpaca LoRAのコードリポジトリをクローンします。
3. トレーニングfinettune.py というPythonファイルには、バッチ サイズ、エポック数、学習率( LR )など、調整可能なLLaMAモデルのハイパーパラメータが含まれています。 finetune.py を実行する必要はありません。それ以外の場合、実行ファイルは tloen/alpaca-lora-7b からベース モデルと重みを読み取ります。 4. モデルを実行するgenerate.py という名前の Python ファイルは、 tloen/alpaca-lora-7b からHugging Faceモデルと LoRA 重みを読み取ります。 Gradioを使用してユーザーインターフェイスを実行し、ユーザーがテキスト ボックスに質問を入力し、別のテキスト ボックスに出力を受け取ることができます。 注: Google Colabで作業している場合は、generate.py ファイルの launch() 関数で share=True をマークしてください。パブリック URL 上でインターフェースを実行します。それ以外の場合は、localhost http://0.0.0.0:7860 で実行されます。 出力: 2 つのURLがあり、1 つはパブリックで、もう 1 つはローカルホストで実行されます。 Google Colab を使用する場合は、パブリック リンクにアクセスできます。 5. アプリケーションをDocker化するアプリケーションをどこかにエクスポートしたい場合や依存関係の問題に直面している場合は、 Docker コンテナでアプリケーションを Dockerize することができます。 Docker は、アプリケーションの不変のイメージを作成するためのツールです。このイメージは共有され、必要なすべてのライブラリ、ツール、コード、ランタイム環境を備えたコンテナー内で実行されるアプリケーションに変換し直すことができます。 Docker for Windows はここからダウンロードできます: https://docs.docker.com/desktop/install/windows-install/。 注: Google Colab を使用している場合は、この手順をスキップできます。 コンテナイメージをビルドします。 コンテナを実行します。
https://localhost:7860 でアプリケーションが実行されます。 Alpaca-LoRA ユーザーインターフェース現在、 Alpaca-LoRA が稼働しています。次に、その機能のいくつかを調べて、何かを書き込んでみましょう。 図 2. Alpaca-LoRA ユーザー インターフェース ChatGPT のような UI が提供されており、質問するとそれに応じて回答が得られます。また、 Temperature 、 Top p 、 Top k 、 Beams 、 Max Tokensなどの他のパラメータも受け入れます。基本的に、これらは評価時に使用されるビルド構成です。 ストリーム出力チェックボックスがあります。このチェックボックスをオンにすると、チャットボットは一度に1 つのトークンを応答します(つまり、 ChanGPTと同様に、出力を 1 行ずつ書き込みます) 。このオプションをオフにすると、すべてを一度に書き込みます。 いくつか質問してみましょう。 質問 1:数値の階乗を求めるPythonコードを記述してください。 出力: 図3.出力-1 質問 2: 「 KDnuggets は、データ サイエンス、機械学習、AI、分析に関する主要なサイトです。 」をフランス語に翻訳してください。 出力: 図4.出力-2 ChatGPT とは異なり、いくつかの制限もあります。インターネットに接続されていないため、最新の情報を提供できない可能性があります。さらに、社会の弱い層に憎悪や誤った情報を広める可能性もあります。それでも、計算要件が低い、優れた無料のオープンソース ツールです。これは、研究者や学者が倫理的なAI およびサイバーセキュリティ活動を実行する上で大きな助けとなるでしょう。 Google Colabリンク: https://colab.research.google.com/drive/1t3oXBoRYKzeRUkCBaNlN5u3xFvhJNVVM?usp=sharing 元のタイトル:わずか数ステップでデバイス上で Alpaca-LoRA を実行する方法を学ぶ、著者: Aryan Garg
|
<<: ウェブページを出力できるAIアプリが登場、早速評価してみよう
>>: 科学者が警告:AIが生成したコンテンツでAIを訓練すると、数世代以内に「ゴミ」が生成され始める
12月7日、Meta、OpenAI、Microsoftは、現地時間水曜日のAMD投資家向けイベントで...
1. Javaガベージコレクションアルゴリズムの核となる考え方Java 言語は、使用中のオブジェクト...
私は週末に AI で遊んでいて、個人的な知識ベースをローカルに展開しています。基本的には OpenA...
現在、医療業界はこれまで以上に、コストの上昇を抑制し、アクセスを向上させ、人材不足による問題を緩和し...
世界初の生成型ロボットエージェントがリリースされました!長い間、大規模なインターネットデータでトレー...
今年上半期、中国と米国のインターネット・テクノロジー企業は、程度の差はあれ、レイオフや人員削減を経験...
最近では、「ビッグデータ」や「人工知能」ほどよく使われる流行語はほとんどありません。多くのデータ分析...
人工知能はヘルスケアに変革をもたらす力となることが期待されています。では、医師と患者は AI 駆動型...
[[258473]]最近、セキュリティ分野に注力する国内の人工知能企業で大規模なデータ漏洩事件が発生...