李開復氏が所有するAI企業Zero One Everythingにも、もう1つの大手モデルプレイヤーが登場した。 90億のパラメータYi-9B 。 Yiシリーズの中では「理科の成績優秀者」として知られており、コーディング数学を「補い」つつ、総合的な能力でも劣っていません。 これは、同様の規模の一連のオープンソース モデル(Mistral-7B、SOLAR-10.7B、Gemma-7B、DeepSeek-Coder-7B-Base-v1.5 など) の中で最も優れたパフォーマンスを発揮します。 いつものように、このリリースはオープンソースであり、特に開発者にとって使いやすいものとなっています。 Yi-9B (BF 16) とその量子化バージョンである Yi-9B (Int8) はどちらも、コンシューマーグレードのグラフィック カードに導入できます。 RTX 4090 1 台と RTX 3090 1 台で十分です。 深い増幅 + 多段階の漸進的トレーニングZero One Thing の Yi ファミリーは、これまでに Yi-6B および Yi-34B シリーズをリリースしています。 どちらも 3.1T トークンの中国語と英語のデータで事前トレーニングされていますが、Yi-9B はさらなるトレーニングのために 0.8T トークンを追加します。 データの締め切りは2023年6月です。 冒頭で述べたように、Yi-9B の最大の改善点は数学とコードにあります。では、この 2 つの機能はどのように改善されたのでしょうか? ゼロワンエブリシングの紹介: 単にデータ量を増やすだけでは、望ましい結果は得られません。 まずモデルのサイズをYi-6Bから9Bに増やし、次に多段階のデータ増分トレーニングを実行します。 まず、モデルのサイズを大きくするにはどうすればいいでしょうか? 1 つの前提は、チームが分析を通じて次のことを発見したことです。 Yi-6B は完全に訓練されており、トークンを追加しても訓練効果が向上しない可能性があるため、サイズを拡大することを検討しています。 (下の写真の単位はTBではなくBです) 増やす方法は?答えは、ディープ増幅です。 ゼロワンエブリシングの紹介: 元のモデルの幅を拡張すると、パフォーマンスの低下が大きくなります。適切なレイヤーを選択してモデルの深さを拡張した後、新しく追加されたレイヤーの入出力コサインが 1.0 に近づくほど、拡張モデルのパフォーマンスが向上し、元のモデルのパフォーマンスを維持でき、モデルのパフォーマンスの低下はわずかになります。 このアイデアに従い、ゼロワンエブリシングは、比較的後期の Yi-6B の 16 層(12 ~ 28 層)をコピーして、48 層の Yi-9B を形成することを選択しました。 実験では、この方法は Solar-10.7B モデルを使用して中間の 16 層(8 ~ 24 層)をコピーするよりもパフォーマンスが優れていることが示されています。 次に、多段階トレーニング法とは何でしょうか? 答えは、まずテキストやコードを含むデータを0.4T増やすことですが、データ比率はYi-6Bと同じです。 次に、テキストとコードも含めた 0.4T のデータを追加しますが、コードと数学データの割合を増やすことに重点を置きます。 (分かりました。これは、大きなモデルの質問で使用したトリックと同じです。「段階的に考える」) これら 2 つのステップを完了した後、チームは 2 つの論文(「An Empirical Model of Large-Batch Training」と「Don't Decay the Learning Rate, Increase the Batch Size」) のアイデアを参考にして、パラメータ調整方法も最適化しました。 つまり、固定の学習率から始めて、モデルの損失が減少しなくなったら、バッチ サイズを増やして、中断することなく損失が減少し続けるようにし、モデルがより完全に学習できるようにします。 最終的に、Yi-9B には合計 88 億個のパラメータが含まれており、4k のコンテキスト長が達成されます。 Yiシリーズは最も強力なコーディングと数学の能力を持っています実際のテストでは、Zero One Everything は貪欲なデコード生成方法(つまり、毎回最大の確率値を持つ単語を選択する方法)を使用してテストを行います。 参加モデルは、DeepSeek-Coder、DeepSeek-Math、Mistral-7B、SOLAR-10.7B、Gemma-7B です。 (1)国内ディープラーニング企業のDeepSeek-Coderには、人間による評価でGPT-3.5-turboを上回る33B命令チューニング版と、CodeLlama-34Bの性能に達する7B版がある。 DeepSeek-Math は70 億のパラメータで GPT-4 を打ち負かし、オープンソース コミュニティ全体に衝撃を与えました。 (2) SOLAR-10.7Bは韓国のUpstage AI社製。2023年12月に打ち上げられ、その性能はMixtral-8x7B-Instructを上回る。 (3)ミストラル7Bは、ラマ270BやGPT3.5のレベルに達し、あるいはそれを上回る最初のオープンソースのMoE大型モデルである。 (4)GoogleのGemma-7B 、Zero One Everythingは次のように述べています。 その有効パラメータ量は、実際にはYi-9Bと同等レベルです。 (2 つの命名規則は異なります。前者は非埋め込みパラメータのみを使用し、後者はすべてのパラメータ量を使用して切り上げます。) 結果は以下の通りです。 まず、コーディングタスクでは、Yi-9B のパフォーマンスは DeepSeek-Coder-7B に次ぐもので、他の 4 つはすべて KO されています。 数学的能力の面では、Yi-9B のパフォーマンスは DeepSeek-Math-7B に次ぐもので、他の 4 つを上回っています。 全体的な能力も悪くありません。 そのパフォーマンスは、同様のサイズのオープンソース モデルの中で最高であり、他の 5 つの競合製品すべてを上回っています。 最後に、常識と推論能力もテストされました。 その結果、Yi-9B は Mistral-7B、SOLAR-10.7B、Gemma-7B と同等となりました。 語学力に関しては、英語だけでなく中国語も好評です。 最後に、これを読んだネットユーザーの中には、「試すのが待ちきれない」と言った人もいます。 DeepSeek について心配する人もいました。
ポータルはこちらです: https://huggingface.co/01-ai/Yi-9B |
<<: 中国科学院による1万語の説明:最先端の画像拡散モデルのレビュー
>>: マスクとイリヤのプライベートメールがクロードによって解読され、OpenAIの暗号化された情報が公開され、Googleが損害を被った
[[186364]]人工知能 (AI) と機械学習 (ML) をめぐる誇大宣伝は信じられないほどのレ...
[51CTO.com オリジナル記事] Doug Cutting 氏はオープンソース コミュニティに...
機械学習における公平性に関する研究は本当に正しい方向に進んでいるのでしょうか?人工知能の発展に伴い、...
少し前にAmazonはAIツール「Amazon Q」をリリースしましたが、その競合はMicrosof...
順序上記に引き続き、このトピックについて話し続けましょう。バランス二分木: AVL 木 (1962)...
今日、私は突然、食べたり飲んだり休んだりすることなく、1時間で200個のレンガを積むことができるレン...
もし何かスーパーパワーを与えられるとしたら、それは何ですか? 営業マンにとって、予知能力、つまり将来...
ダブルイレブンの割引を計算するために、昨年どれだけの髪の毛が抜けたか覚えていますか?昨年、天猫は総取...
[[387359]] 30年以上前、エドワード・シザーハンズの「ナイフがなければ、君を守ることはでき...
海外メディアの報道によると、ヨーロッパ人は5年前よりもロボットに対して保守的になっていることが調査で...
EdgeAI はもはやブループリント段階ではありません。すでに主流として採用され、驚異的な速度で成...
データセンター内外を問わず、自動化に境界はないと考えるのは簡単です。 AI がデータ センターの運用...
近年、人工肉は急速に発展していますが、本物の肉と比較すると、味や食感にはまだ明らかな差があります。最...