コンシューマーグレードのグラフィック カードが利用可能になりました。李開復のゼロワンエブリシングは、史上最強の数学コードである90億パラメータのYiモデルをリリースし、オープンソース化しました。

コンシューマーグレードのグラフィック カードが利用可能になりました。李開復のゼロワンエブリシングは、史上最強の数学コードである90億パラメータのYiモデルをリリースし、オープンソース化しました。

李開復氏が所有するAI企業Zero One Everythingにも、もう1つの大手モデルプレイヤーが登場した。

90億のパラメータYi-9B

Yiシリーズの中では「理科の成績優秀者」として知られており、コーディング数学を「補い」つつ、総合的な能力でも劣っていません。

これは、同様の規模の一連のオープンソース モデル(Mistral-7B、SOLAR-10.7B、Gemma-7B、DeepSeek-Coder-7B-Base-v1.5 など) の中で最も優れたパフォーマンスを発揮します。

いつものように、このリリースはオープンソースであり、特に開発者にとって使いやすいものとなっています

Yi-9B (BF 16) とその量子化バージョンである Yi-9B (Int8) はどちらも、コンシューマーグレードのグラフィック カードに導入できます。

RTX 4090 1 台と RTX 3090 1 台で十分です。

深い増幅 + 多段階の漸進的トレーニング

Zero One Thing の Yi ファミリーは、これまでに Yi-6B および Yi-34B シリーズをリリースしています。

どちらも 3.1T トークンの中国語と英語のデータで事前トレーニングされていますが、Yi-9B はさらなるトレーニングのために 0.8T トークンを追加します。

データの締め切りは2023年6月です

冒頭で述べたように、Yi-9B の最大の改善点は数学とコードにあります。では、この 2 つの機能はどのように改善されたのでしょうか?

ゼロワンエブリシングの紹介:

単にデータ量を増やすだけでは、望ましい結果は得られません。

まずモデルのサイズをYi-6Bから9Bに増やし次に多段階のデータ増分トレーニングを実行します

まず、モデルのサイズを大きくするにはどうすればいいでしょうか?

1 つの前提は、チームが分析を通じて次のことを発見したことです。

Yi-6B は完全に訓練されており、トークンを追加しても訓練効果が向上しない可能性があるため、サイズを拡大することを検討しています。 (下の写真の単位はTBではなくBです)

増やす方法は?答えは、ディープ増幅です。

ゼロワンエブリシングの紹介:

元のモデルの幅を拡張すると、パフォーマンスの低下が大きくなります。適切なレイヤーを選択してモデルの深さを拡張した後、新しく追加されたレイヤーの入出力コサインが 1.0 に近づくほど、拡張モデルのパフォーマンスが向上し、元のモデルのパフォーマンスを維持でき、モデルのパフォーマンスの低下はわずかになります。

このアイデアに従い、ゼロワンエブリシングは、比較的後期の Yi-6B の 16 層(12 ~ 28 層)をコピーして、48 層の Yi-9B を形成することを選択しました。

実験では、この方法は Solar-10.7B モデルを使用して中間の 16 層(8 ~ 24 層)をコピーするよりもパフォーマンスが優れていることが示されています。

次に、多段階トレーニング法とは何でしょうか?

答えは、まずテキストやコードを含むデータを0.4T増やすことですが、データ比率はYi-6Bと同じです。

次に、テキストとコードも含めた 0.4T のデータを追加しますが、コードと数学データの割合を増やすことに重点を置きます。

(分かりました。これは、大きなモデルの質問で使用したトリックと同じです。「段階的に考える」)

これら 2 つのステップを完了した後、チームは 2 つの論文(「An Empirical Model of Large-Batch Training」と「Don't Decay the Learning Rate, Increase the Batch Size」) のアイデアを参考にして、パラメータ調整方法も最適化しました

つまり、固定の学習率から始めて、モデルの損失が減少しなくなったら、バッチ サイズを増やして、中断することなく損失が減少し続けるようにし、モデルがより完全に学習できるようにします。

最終的に、Yi-9B には合計 88 億個のパラメータが含まれており、4k のコンテキスト長が達成されます。

Yiシリーズは最も強力なコーディングと数学の能力を持っています

実際のテストでは、Zero One Everything は貪欲なデコード生成方法(つまり、毎回最大の確率値を持つ単語を選択する方法)を使用してテストを行います。

参加モデルは、DeepSeek-Coder、DeepSeek-Math、Mistral-7B、SOLAR-10.7B、Gemma-7B です。

(1)国内ディープラーニング企業のDeepSeek-Coderには、人間による評価でGPT-3.5-turboを上回る33B命令チューニング版と、CodeLlama-34Bの性能に達する7B版がある。

DeepSeek-Math は70 億のパラメータで GPT-4 を打ち負かし、オープンソース コミュニティ全体に衝撃を与えました。

(2) SOLAR-10.7Bは韓国のUpstage AI社製。2023年12月に打ち上げられ、その性能はMixtral-8x7B-Instructを上回る。

(3)ミストラル7Bは、ラマ270BやGPT3.5のレベルに達し、あるいはそれを上回る最初のオープンソースのMoE大型モデルである。

(4)GoogleのGemma-7B 、Zero One Everythingは次のように述べています。

その有効パラメータ量は、実際にはYi-9Bと同等レベルです。

(2 つの命名規則は異なります。前者は非埋め込みパラメータのみを使用し、後者はすべてのパラメータ量を使用して切り上げます。)

結果は以下の通りです。

まず、コーディングタスクでは、Yi-9B のパフォーマンスは DeepSeek-Coder-7B に次ぐもので、他の 4 つはすべて KO されています。

数学的能力の面では、Yi-9B のパフォーマンスは DeepSeek-Math-7B に次ぐもので、他の 4 つを上回っています。

全体的な能力も悪くありません。

そのパフォーマンスは、同様のサイズのオープンソース モデルの中で最高であり、他の 5 つの競合製品すべてを上回っています。

最後に、常識と推論能力もテストされました。

その結果、Yi-9B は Mistral-7B、SOLAR-10.7B、Gemma-7B と同等となりました。

語学力に関しては、英語だけでなく中国語も好評です。

最後に、これを読んだネットユーザーの中には、「試すのが待ちきれない」と言った人もいます。

DeepSeek について心配する人もいました。

急いで「ゲーム」をレベルアップしましょう。全体的な優位性は失われました。

ポータルはこちらです: https://huggingface.co/01-ai/Yi-9B

<<:  中国科学院による1万語の説明:最先端の画像拡散モデルのレビュー

>>:  マスクとイリヤのプライベートメールがクロードによって解読され、OpenAIの暗号化された情報が公開され、Googleが損害を被った

ブログ    

推薦する

トランスフォーマーのメンバー8人全員がGoogleに亡命!最後の共著者は今月末に自身のビジネスを始めるために退社する。

トランスフォーマーのメンバー8人全員がGoogleから離脱した。 Googleの画期的なTransf...

RWKV の紹介: リニア トランスフォーマーの台頭と代替案の検討

RWKV ポッドキャストからの私の考えの一部を要約すると次のようになります: https://www...

...

中国建設銀行のAI戦略

中国建設銀行の田国利会長は、「金融テクノロジーによってもたらされた包括的金融の伝統的なモデルの破壊的...

AppleはApp Storeのアプリランキングアルゴリズムを変更する可能性がある

北京時間4月19日朝のニュースで、モバイル広告ネットワーク関係者は、AppleがApp Storeの...

AIをベースとしたイベントインテリジェント分析システム構築の実践

1. 背景現在、仮想化やクラウドコンピューティングなどの新技術の普及により、企業のデータセンター内の...

AIがデータ統合の状況をどう変えるのか

生成 AI は統合の状況を変えています。 チームの経済性、速度、プロジェクト構造、配信モデルについて...

...

私の国は、送電線の加熱を検出するために初めてAI技術を大規模に使用しました。

8月14日、科技日報によると、国家電網電力宇宙科技有限公司と華北電力大学などが開発した送電線赤外線...

...

2020年の中国の人工知能開発の見通し

人工知能の今後の発展の見通し。中国の人工知能研究は爆発的な成長期にあり、人工知能産業の基礎条件は整っ...

...

...

選択が難しいですか?最適な機械学習アルゴリズムの選び方を1つの記事で解説

機械学習アルゴリズムを適用して、関心のある問題を解決したいと考えている初心者/中級のデータ サイエン...