実装のアイデアと手順軽量 LLM モデル推論フレームワーク InferLLM を OpenHarmony 標準システムに移植し、OpenHarmony で実行できるバイナリ製品をコンパイルします。 (InferLLM は、量子化されたモデルを LLM にローカルに展開できるシンプルで効率的な LLM CPU 推論フレームワークです) OpenHarmony NDK を使用して、OpenHarmony 上で InferLLM 実行可能ファイルをコンパイルします (具体的には、OpenHarmony lycium クロスコンパイル フレームワークを使用し、いくつかのスクリプトを記述します。次に、それらを tpc_c_cplusplusSIG リポジトリに保存します)。 DAYU200に大規模な言語モデルをローカルにデプロイするInferLLM 3 パーティ ライブラリ コンパイル製品をコンパイルして取得するOpenHarmony SDK をダウンロードするには、ダウンロード アドレス:http://ci.openharmony.cn/workbench/cicd/dailybuild/dailyList このリポジトリをダウンロードする
InferLLM の 3 者ライブラリ ヘッダー ファイルと生成されたライブラリを取得します。InferLLM-405d866e4c11b884a8072b4b30659c63555be41d ディレクトリは、コンパイルされた 32 ビットおよび 64 ビットのサードパーティ ライブラリを含む tpc_c_cplusplus/thirdparty/InferLLM/ ディレクトリに生成されます。 (関連するコンパイル結果は、lycium ディレクトリの下の usr ディレクトリにパッケージ化されません)。 コンパイルされた製品ファイルとモデルファイルを開発ボードにプッシュして実行します。
InferLLM 三部ライブラリを移植して、OpenHarmmony デバイス rk3568 に大規模な言語モデルを展開し、人間とコンピューターの対話を実現します。最終的な実行効果は少し遅く、人間とコンピューターのダイアログボックスが少しゆっくりとポップアップするので、しばらくお待ちください。 |
<<: GPT-4/Llama2のパフォーマンスを大幅に向上させるためにRLHFは必要ない、北京大学のチームはAlignerの新しいアライメントパラダイムを提案
AI の作成は複雑なプロセスかもしれませんが、AI を破壊するには 1 つのステップだけが必要です...
人工知能の急速な発展に伴い、高品質なデータの重要性がますます明らかになっています。大規模言語モデルを...
今日は畳み込みニューラル ネットワークについてお話します。畳み込みニューラル ネットワークは、主に、...
COVID-19の影はまだ消えていないが、今年のプレミアリーグの試合の最初の週末は珍しい「好天」を...
現在最も成功している人工知能アルゴリズムである人工ニューラル ネットワークは、人間の脳内の実際のニュ...
AIの応用が広まるにつれ、ディープラーニングは現在のAI研究と応用の主流の方法となっています。膨大...
RUDN大学の数学者チームは、再トレーニングに余分なリソースを費やすことなく、ニューラルネットワーク...
これから起こることは、やがて起こるでしょう! OpenAIが開発者会議で正式発表した「GPTストア」...
[[414082]]画像ソース: https://pixabay.com/images/id-592...
11月5日、Wave Summit+2019 Deep Learning Developer Sum...
50 年前の kNN アルゴリズムは、わずか 14 行のコードで、BERT などの人気の Trans...
翻訳者 | 朱 仙中校正 | 梁哲、孫淑娟まとめ人工知能 (AI) ベースのシステムは大きな可能性を...
モノのインターネットは膨大な量のデータを生成します。そのデータは、都市が事故や犯罪を予測するのに役立...