最近、Vincent Diffusion アーティファクトをオープンソース化した Stability AI が、コーディング用の最初の生成 AI 大規模モデルである StableCode という新しい大規模モデルをリリースしました。安定性 Al はそれを「革命的」と表現しています。 報道によると、StableCode は、プログラマーが日常業務をこなせるように設計されており、同時に初心者の開発者がスキルを次のレベルに引き上げるための優れた学習ツールも提供します。 公式ブログアドレス: https://stability.ai/blog/stablecode-llm-generative-ai-coding ネットユーザーは StableCode に大きな期待を寄せており、コードベース全体をコンテキストとして使用する大規模なコード モデルが本当に必要だと述べています。 3つのバージョン: 基本、コマンド、およびロングコンテキストウィンドウモデルStableCode は、3 つの異なるバージョンのモデルを通じて開発者の効率性を高めます。ベースモデルは「StableCode-Completion-Alpha-3B-4K」で、デコーダーのみを使用する 30 億パラメータのコード補完モデルです。 ベースモデルは、BigCode スタック データセットのさまざまなプログラミング言語で事前トレーニングされており、特に Python、Go、Java、Javascript、C、マークダウン、C++ などの一般的なプログラミング言語でトレーニングされています。合計で、StableCode はHPC クラスター上で 5,600 億のトークン コードをトレーニングします。 ここでのBigCodeは、HuggingFaceとServiceNow Researchが2022年9月に共同で立ち上げたコードビッグモデルプロジェクトです。AIコード生成ツールを中心としたオープンコミュニティを構築し、ビッグ言語モデルコードを開発することを目的としています。 ハギングフェイス: https://huggingface.co/stabilityai/stablecode-completion-alpha-3b-4k 基本モデルをベースに、特定のユースケースに合わせて調整された命令モデル「StableCode-Instruct-Alpha-3B」は、複雑なプログラミングタスクの解決に役立ちます。このモデルは、stackoverflow 開発者調査レポートのトッププログラミング言語で事前トレーニングされた、30 億のパラメータ デコーダーのみの命令調整コード モデルでもあります。 同時に、ベースモデルは、Alpaca 形式の約 120,000 個のコード命令応答ペアでトレーニングされました。次の図は、StableCode 命令モデルを使用して特定の命令に対する応答を生成するコードの例を示しています。 Huggingface アドレス: https://huggingface.co/stabilityai/stablecode-instruct-alpha-3b StableCode は、コーディング スキルをさらに習得したい人にとって理想的な構成要素です。ロングコンテキスト ウィンドウ モデル「StableCode-Completion-Alpha-3B」は、ユーザーが単一行および複数行の自動コード補完提案を使用できるようにする完璧なアシスタントと見なすことができます。 このモデルは、2023 年の StackOverflow 開発者調査レポートで最も使用されているプログラミング言語で事前トレーニングされた、30 億のパラメータ デコーダーのみのコード補完モデルでもあります。 以前にリリースされたオープンソース モデルと比較すると、このモデルのコンテキスト ウィンドウは 16,000 トークン (他のどのモデルよりも大きい) に達し、一度に処理できるコード数も以前より 2 ~ 4 倍多くなります。これにより、ユーザーは 5 つの中規模の Python ファイルを表示または編集できるため、初心者にとって理想的な学習ツールになります。 下の図に示すように、StableCode は Pytorch ディープラーニング ライブラリを使用して比較的複雑な Python ファイルを完成させます。ここで、グレー コードは StableCode の予測結果です。 Huggingface アドレス: https://huggingface.co/stabilityai/stablecode-completion-alpha-3b 同レベルのモデルの比較結果次の表は、StableCode モデルの 3 つのバージョンのベンチマーク スコアを示しています。 StableCode は、一般的な HumanEval ベンチマークの pass@1 および pass@10 メトリックを使用して、同様のパラメーターとトークン数 (30 億パラメーター) を持つピア モデルとも比較されます。 下の図からわかるように、replit-coder(AIプログラミングユニコーンReplitがリリース)とstarcoderbaseを比較すると、StableCodeのpass@1はreplit-coderよりも強力で、starcoderbaseよりも弱く、pass@10は両方よりも強力です。 オリジナルリンク: https://stability.ai/blog/stablecode-llm-generative-ai-coding |
>>: 原子力 + AI: 原子力技術の未来を創造するのか?
[[256558]] AIが大量失業を引き起こすという懸念は根拠がない世界的な研究機関である羅漢研究...
「人工知能、ユニークだと思います」。2月24日、北京8分監督のチャン・イーモウ氏が公演のハイライトを...
世界各国の政府は新型コロナウイルス感染症の流行に対抗するためさまざまな対策を講じているが、世界的な流...
最新世代のスマートフォンに搭載されつつある 3D センサーは、機械学習によって解き放たれた写真撮影技...
何が起こっているのか?アリは新しい仕事を思いついたようです—— MotionShop では、他のシー...
確かに、人工知能はさまざまな面で人々の生活を楽にしてきました。 Google アシスタント、Siri...
技術が急速に進歩する時代において、人工知能 (AI) が最終的に世界を支配するかどうかという差し迫っ...
前回の記事では、PaddlePaddle を使用して手書きの数字を認識する例を示し、ネットワーク構造...
AR/VR は双子の兄弟として語られることが多く、一般的にはアプリケーション層の新しいテクノロジー、...