背景今日のデータ爆発の時代では、言語モデルのトレーニングはますます複雑かつ困難になっています。効率的な言語モデルをトレーニングするには、膨大なコンピューティング リソースと時間が必要です。しかし、これは多くの人にとって現実的ではありません。同時に、特にエッジデバイス上で、限られたメモリとコンピューティング リソースで大規模な言語モデルをどのように使用するかという課題にも直面しています。 今日は、GitHub のオープンソース プロジェクト jzhang38/TinyLlama をお勧めしたいと思います。このプロジェクトは、GitHub で 4.3k を超えるスターを獲得しています。このプロジェクトは、1 文で紹介できます。「TinyLlama プロジェクトは、3 兆個のトークンで 11 億個の Llama モデルを事前トレーニングするオープンな取り組みです。」 プロジェクト紹介TinyLlama は、3 兆個のトークンで 11 億個の Llama モデルを事前トレーニングすることを目指しています。適切な最適化により、16 個の A100-40G GPU を使用してわずか 90 日でこの目標を達成することができました。このプロジェクトは、Llama 2 とまったく同じアーキテクチャとトークナイザーを使用しているため、TinyLlama をプラグインして、多くのオープンソースの Llama ベースのプロジェクトに使用することができます。さらに、TinyLlama はパラメータが 11 億個しかないため、非常にコンパクトです。このコンパクトさにより、計算とメモリのフットプリントを制限する必要がある多くのアプリケーションに適しています。 使い方モデルを直接ダウンロードして使用することも、huggingface を通じてデモを使用することもできます。 ご自身でトレーニングをご希望の場合は、以下のトレーニング詳細をご参照ください。 プロジェクト推進TinyLlama は、いくつかの重大な問題を積極的に解決しており、オープンソース コミュニティで大きな注目を集めている、エキサイティングなオープンソース プロジェクトです。 以下は、プロジェクトのスタートレンドチャートです(プロジェクトのアクティビティを表します)。 プロジェクトの詳細については、以下のリンクをご覧ください。 オープンソースプロジェクトのアドレス: https://github.com/jzhang38/TinyLlama オープンソース プロジェクト作成者: jzhang38 プロジェクト構築に関わるメンバーは以下の通りです。 |
>>: 見事な! ! !テスラのエンドツーエンドのデモンストレーションビデオ分析
JLLの新しいレポートによると、人工知能の需要とクラウドサービスの継続的な導入により、データセンター...
数十または数百の層を持つニューラル ネットワークの応用は、ディープラーニングの重要な機能の 1 つで...
データによれば、わが国には60歳以上の高齢者が2億6,400万人以上おり、そのうち1億8,000万人...
1. リレーショナルデータはSQLから分離される最新のエッジ コンピューティング、IoT、GenAI...
最近、烏鎮での夕食会で大物たちが何を食べたかという噂に加え、インターネット会議では人工知能に関する一...
ニューラル ネットワーク (NN) アーキテクチャ ダイアグラムの作成には、多くの場合、時間と労力が...
写真ビッグデータダイジェスト制作Michael I. Jordan は、機械学習、確率、統計、グラフ...
[[415476]]この記事はWeChatの公開アカウント「Magic Programmer K」か...
最近、「両会」の政府活動報告では、人工知能が再び言及された。「新世代人工知能の研究開発と応用を強化し...
オープンAIは6月29日水曜日、ロンドンに新オフィスを設立すると発表した。これは同社にとって米国外初...
[[333019]]この記事は、劉燕氏が執筆したWeChatパブリックアカウント「AI Front...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...