本日、Stability AI は 2024 年向けの最初のモデルである Stable Code 3B をリリースしました。 写真 名前の通り、Stable Code 3B はコーディング機能に重点を置いており、実際のパフォーマンスも非常に優れています。 3B パラメータのみで、Code Llama 7B と同じ効果が得られます。 写真 Code Llama 7B と比較すると、Stable Code 3B は 60% 小さくなっていますが、複数のプログラミング言語で同等のレベルを維持し、Python と C++ のコード補完では Code Llama 7B を上回っています。 さらに、モデルのサイズはわずか 3B なので、専用の GPU がなくても、Stable Code 3B は MacBook Air などの一般的なラップトップでリアルタイムに実行できます。 一部のネットユーザーは、Stable Code 3B を Copilot のオフライン代替品と呼び、VS Code で使用したいと考えています。 写真 4時間後、ネットユーザーがVS CodeのLLama Coderプラグインを更新して最新のStable Code 3Bモデルをサポートするようになったとツイートした。 写真 「本当に素晴らしいです!小さいので、どんなハードウェアでも実行でき、非常に高速に動作します。」 写真 プラグインアドレス: https://t.co/Mn7onaDpge このモデルは名目上は Stable Code 3B と呼ばれていますが、実際には 27 億個のパラメータを持つ純粋なデコーダー言語モデルです。 Stable Code 3B は軽量モデルであるだけでなく、最大 100K のコンテキスト サイズもサポートしており、より便利かつ正確なエンコードに役立ちます。 また、このモデルは2023年のStackOverflow開発者調査で最も人気のプログラミング言語18言語を参考にしており、同規模のモデルの中で最高のパフォーマンスを発揮できるよう、これら18言語向けにトレーニングされているとのこと。
同レベルの競合モデルと比較すると、Stable Code 3B もほぼ最高の結果を達成しました。 写真 現在、Stable Code 3B は Stability AI のメンバーシップ パッケージに含まれています。商用目的で使用しない限り、ユーザーは無料で使用できます。 写真 安定コード 3B Stability AI は、テキスト生成用の StableLM Zephyr 3B などのモデルを含む、より小型ながら強力なモデルのリリースを 2023 年末から開始する予定です。 Stable Code 3B の前身は、Stability AI が 8 月にリリースした Stable Code Alpha 3B です。 Stable Code Alpha 3B は、BigCode Stack データセット (v1.2) を使用して基本モデルをトレーニングし、さらに Python、Go、Java、Javascript、C、Markdown、C++ などの一般的な言語でトレーニングします (合計 560B のコード トークン)。 ベースモデルを構築した後、開発者は特定のユースケースに合わせて命令モデルを調整し、Alpaca 形式の約 120,000 個のコード命令/応答を使用してモデルをトレーニングし、複雑なプログラミング タスクを解決する能力を向上させました。 写真 上の図は、Stable Code Alpha が Pytorch ライブラリを使用して比較的複雑な Python ファイルを完成させていることを示しています。灰色の部分は Stable Code の予測です。 パラメータの詳細: 100K コンテキスト、FIM をサポート安定コード 3B は、256 個の NVIDIA A100 40GB GPU (AWS P4d インスタンス) のクラスターでトレーニングされました。 ZeRO-1 のデータ並列処理とテンソル並列処理を使用し、FlashAttention と FlashAttention-2 の SwiGLU および Rotary Embedding カーネルに依存します。 モデルのトレーニング プロセスは、Code Llama に似た複数段階のプロセスで構成されます。 最初のステップでは、自然言語データ(4兆トークンでトレーニング済み)で事前トレーニングされたStableLM-3B-4e1tが、CommitPack、GitHub Issues、StarCoder、その他の数学データセットを含む複数のコードおよびコード関連データセットで教師なし微調整されます。 写真 モデルは上記のデータセットで bfloat16 精度で事前トレーニングされ、AdamW で最適化されました。 2 番目のステップでは、16,384 トークンのより長いシーケンスを使用してモデルがさらに微調整され、Code Llama と同様に、最適化のために Rotated Position Embedding (RoPE) と呼ばれる手法を使用してコンテキスト サイズが 100k トークンに拡張されます。 さらに、新しい Stable Code 3B モデルは Flash Attention 2 もサポートします。 写真 改良版である Stable Code 3B は、新しいコード行を提案できるだけでなく、中間充填機能 (FIM) と呼ばれる、既存のコード内の欠落している大きなセクションを充填することもできます。 写真 Stable Code 3B のモデル アーキテクチャを次の表に示します。 写真 モデルのスループットを向上させるために、回転位置埋め込みがヘッド埋め込みの最初の 25% に適用されます。 GPTNeoX Tokenizer の修正版である NeoX を使用して、<FIM_PREFIX>、<FIM_SUFFIX> などの特別なトークンを追加し、中間充填関数をトレーニングします。 Stable Code 3B は、BigCode の評価ツールを使用してテストされた複数のプログラミング言語にわたって、MultiPL-E メトリックで最先端のパフォーマンスを実証します。 写真 上記の表では、Stable Code 3B を同じサイズのコーディング モデルと比較しており、6 つのプログラミング言語すべての中でトップに立っています。 2倍以上の大きさのコードラマ7Bと比較して、安定したコード3Bも3勝を挙げました。 スタビリティ社は、より詳しい情報とアブレーション実験を記載した完全な技術報告書を発表する予定だと述べた。 コード生成をめぐる戦い現在、AI コード生成ツールの市場競争は非常に激しく、70 億のパラメータを備えた Meta の Code Llama 7B が多くの開発者に使用されています。 30 億パラメータレベルでは、StarCoder LLM (IBM、HuggingFace、ServiceNow によって開発されたオープンソース プロジェクト) が非常に人気があります。 テスト結果から判断すると、Stability AI モデルは StarCoder よりも優れています。Stable Code 3B が Stability と市場にどのような変化をもたらすのか興味があります。 参考文献: https://stability.ai/news/stable-code-2024-llm-code-completion-release https://huggingface.co/stabilityai/stable-code-3b |
<<: 200億の「Shusheng·Puyu 2.0」が正式にオープンソース化されました!データプッシュのパフォーマンスはChatGPTに匹敵し、20万の超長コンテキストを完璧に再現します。
[[187207]]人工知能は人類を滅ぼすことはないかもしれないが、人工知能が人間の仕事を奪うのでは...
2022年1月25日、人工知能分野で世界で最も影響力のある学者の2022年リスト「AI 2000」...
セキュリティ分野で広く使用されている技術の中で、生体認証技術のプライバシー問題が最も懸念されています...
PaddlePaddleは、Baiduが2016年8月末に一般公開したディープラーニングプラットフォ...
[[342701]] スマートホーム革命はかなり前から本格化しています。住宅所有者はデータと IoT...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
この記事では、機械学習の知識を広め、機械学習で何ができるのか、どのように行うのかを簡単に紹介します。...
中国IDCサークルニュース:中国のオンライン求人プラットフォームBoss Zhipinは、中国政府が...
ビッグデータダイジェスト制作著者: カレブ西暦79年、ベスビオ山が噴火し、その麓にあったポンペイの街...
GPTとはGPT は「Generative Pre-Training」の略で、画像とテキストの入力...
[[358758]]人工知能はかつてはSF映画にしか登場しない言葉でした。しかし、通信、ビッグデータ...
論文タイトル: 分子特性予測のための自動 3D 事前トレーニング論文リンク: https://arx...
人類は物質とエネルギーの新しい時代を迎えようとしているのでしょうか?未来のテクノロジーへの扉が開かれ...