Mac ユーザーは、ついに、RTX を使用した独自の大型モデル チャットを持つ N カード プレーヤーを羨む必要がなくなりました。 偉大なる神によって立ち上げられた新しいフレームワークにより、Apple コンピューターはローカルの大規模モデルを実行できるようになり、わずか 2 行のコードで展開を完了できます。 Chat with RTX をモデルにしたこのフレームワークは Chat with MLX (MLX は Apple の機械学習フレームワーク)と呼ばれ、元 OpenAI の従業員によって作成されました。 黄院士のフレームワークの一部の機能、たとえばローカル ドキュメントの要約や YouTube ビデオの分析などは、MLX のチャットでも利用できます。 中国語を含む 11 の言語が利用可能で、7 つの大規模なオープン ソース モデルをサポートしています。 体験したユーザーによると、Appleデバイスではコンピューティングの負担が少し重いかもしれないが、初心者でも簡単に始められるとのこと。MLXとのチャットは本当に良いものだ。 では、MLX とのチャットの実際の効果は何でしょうか? MacBookを使用して大規模なローカルモデルを展開するChat with MLX は pip コマンドに統合されているため、pip をお持ちの場合は、インストールを完了するために必要なコードは 1 行だけです。
インストールが完了したら、ターミナルに chat-with-mlx と入力して Enter キーを押します。自動的に初期化が完了し、Web ページがポップアップ表示されます(初回起動時およびモデルのダウンロード時には Hugging Face サーバーに接続する必要があります) 。 △MLXの実際のテスト結果とチャットこのページを下にスクロールし、使用するモデルと言語を選択して、「モデルの読み込み」をクリックします。システムによってモデル情報が自動的にダウンロードされ、読み込まれます。 途中でモデルを変更する必要がある場合は、新しいモデルを選択する前に以前のモデルをアンロードする必要があることに注意してください。 Hugging Face で利用可能で、MLX フレームワークと互換性がある限り、他のモデルも手動で追加できます。この方法の詳細については、GitHub ページを参照してください。 独自のデータを使用する場合は、まずタイプ(ファイルまたは YouTube ビデオ)を選択し、ファイルをアップロードするかビデオ リンクを入力して、「インデックス作成の開始」をクリックしてインデックスを作成する必要があります。 開発者によると、「停止」をクリックしない限り、新しいファイルを再度アップロードするとデータが蓄積されるとのことです。 もちろん、データを転送せずに通常の大型モデルとして使用することもできます。 長い推論時間を回避するために、テストには小型の Quyen-SE を選択しました。 (Quyen-SEはAlibabaのTongyi Qianwenをベースにしており、Chat with MLXの作者も研究開発に参加しました。) まずはカスタムデータを追加していないモデルの速度を見てみます。M1チップを搭載したMacBookではこの0.5Bモデルのパフォーマンスはこのようになり、比較的スムーズだと言えます。 しかし、プロモーションでは、Chat with MLX の主なセールス ポイントは依然としてローカル RAG 検索です。 モデルのトレーニング データに元の文書が存在していないことを確認するために、編集者は、オンラインで公開されていない学部論文をボックスの底から掘り出しました。 私たちは論文のさまざまな箇所で詳細を尋ね、記事の内容に基づいてChat with MLX用に合計10の質問を設計しました。 回答のうち 7 つは正解 (コンテキストと一致している) ですが、速度は純粋な生成よりもわずかに遅くなります。 テスト中に、モデルがプロンプト単語を吐き出す確率は一定であるものの、トリガー条件には規則性がないことが判明しました。 しかし、モデルのパフォーマンスを向上させるために、著者はすでにチップなどの新しいプロンプトワード技術を使用していることがわかります。 全体的に、おそらくコンピューティング能力の制約のため、Apple デバイスにローカルの大規模モデルを展開する効果は、NVIDIA の Chat with RTX に匹敵するものではありません。 同時に、GitHub 上では多くのユーザーからさまざまなインストール失敗の問題が報告され、作者は対応したりフォローアップしたりして再度プログラムを更新しました。 しかし、いずれにしても、ローカル展開を選択する場合、データセキュリティはより重要な考慮事項になる可能性があり、このことから、ローカライズされた専用の大型モデルが、コンシューマーグレードの製品に向けて普及する傾向を示し始めていることがわかります。 ネットユーザーの言葉を借りれば、AI PC をアップグレードする時期が来ています。 GitHub: https://github.com/qnguyen3/chat-with-mlx |
>>: 2秒で2枚の画像を3D再構築!このAIツールはGitHubで人気です、ネットユーザー:Soraを忘れてください
昨日の午後、百度は新製品発表会で「小度」スマートスピーカーを発表しました。このスマートスピーカーは百...
ゲスト: 周 麗編集者: Qianshan人間とコンピュータの対話は長い間私たちの日常生活に組み込ま...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[335658]]現在、数十のスタートアップ企業や大手テクノロジー企業が、ホテル、小売店、さらには...
2019 IEEE 自動音声認識および理解ワークショップ (ASRU) は、2019 年 12 月 ...
localGPT - GPT モデル ツールのローカル展開localGPT を使用すると、GPT モ...
[[342720]] 人工知能の分野でのこの国の雇用機会はどのようなものでしょうか?私たちはすべてが...
機械学習における公平性に関する研究は本当に正しい方向に進んでいるのでしょうか?人工知能の発展に伴い、...
2月18日に火星への着陸に成功したNASAの火星探査車パーサヴィアランスは、火星での2年間の探査ミッ...
[[405574]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
翻訳者 |ブガッティレビュー | Chonglouこの記事では、無料で使いやすい新しいクラウドIDE...
[[286435]]カメラはどこにでもあり、顔認識は生活のほぼあらゆる場面で使用されています。どのよ...
近年、私たちの生活におけるドローンの応用はますます一般的になっています。当初は軍事分野でしたが、その...