10月18日、NVIDIAはハードウェア分野における生成型人工知能の王者となった。同社のGPUは、MicrosoftやOpenAIなどの企業のデータセンターに搭載され、Bing ChatやChatGPTなどの人工知能サービスを実行している。本日、Nvidia は、ローカル Windows PC 上の大規模言語モデル (LLM) のパフォーマンスを向上させるように設計された新しいソフトウェア ツールを発表しました。 Nvidia はブログ投稿で、以前はデータセンター向けにリリースされていた TensorRT-LLM オープンソース ライブラリが、Windows PC でも利用できるようになったことを発表しました。最も優れた機能は、Windows PC に NVIDIA GeForce RTX GPU が搭載されている場合、TensorRT-LLM により LLM を Windows PC 上で 4 倍高速に実行できることです。 NVIDIA は記事の中で、開発者とエンドユーザーにとっての TensorRT-LLM の利点を次のように紹介しています。
IT Home は、ブログ投稿に TensorRT-LLM の例が示されていることに気付きました。 LLaMa 2 ベース モデルに「Alan Wake 2 にはどのような NVIDIA テクノロジが統合されていますか?」と質問したところ、「ゲームはまだ発表されていません」という役に立たない回答が返ってきました。代わりに、RAG を使用して GeForce News を Vector Library に追加し、同じ Llama2 モデルに接続すると、正しい答え (NVIDIA DLSS 3.5、NVIDIA Reflex、フルスクリーン レイ トレーシング) が得られるだけでなく、TensorRT-LLM アクセラレーションにより応答性も大幅に向上します。このスピードとパワーの組み合わせにより、ユーザーはよりスマートなソリューションを利用できるようになります。 TensorRT-LLM は、NVIDIA の開発者向け Web サイトでまもなく利用可能になります。 Nvidia は本日、新しい GeForce ドライバー アップデートに AI ベースの機能もいくつか追加しました。これには、オンライン ビデオを視聴するときに解像度のアップスケーリングが向上し、圧縮が少なくなる、RTX ビデオ スーパー解像度機能の新しいバージョン 1.5 が含まれます。 Nvidia は、Stable Diffusion Web UI に TensorRT AI アクセラレーションも追加し、GeForce RTX GPU を使用するユーザーが AI 画像ジェネレーターから通常よりも高速に画像を取得できるようにしました。 |
<<: ベイジアンネットワークを使用して病院の患者数を予測する
この記事では、主にコンシステント ハッシュ アルゴリズムの原理とデータ スキューの問題について説明し...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[254684]]人工知能時代の対話的特徴は、「対話」という一言に集約されます。音声であれテキスト...
[51CTO.comからのオリジナル記事] インターネット+の急速な発展に伴い、オフライン小売業界...
今日、私は突然、食べたり飲んだり休んだりすることなく、1時間で200個のレンガを積むことができるレン...
最近、ハッカーがサイバー攻撃を仕掛けてデータ漏洩を引き起こしているというニュースをよく耳にすると思い...
[[275322]]今日では、人工知能はもはや流行語ではなく、多くの環境ビジネスアナリストやその他の...
現在、中国の製造業、農業、飲食業、企業、機関はすべて、自動化からインテリジェンス化、デジタル化への変...
注目の人工知能がインターネットの「伝統的なプロジェクト」情報サービスと出会うと、業界にどのような A...
[[270834]]近年、人工知能はテクノロジー界で注目されている分野です。中国では、Megvii...
急速に発展するデジタル時代において、ビジネスの成功にとって高品質で効率的なテスト サービスが重要であ...