翻訳者 |李睿 レビュー | Chonglou GPT-4 のような大規模言語モデル (LLM) はソフトウェア コードの記述に非常に優れていますが、これらのモデルのコストと不透明性により、より経済的でサイズの小さい LLM のエンコードへの関心が高まっています。 これらの代替手段は、特定のタスクに合わせて微調整でき、コストも低くなります。これらの LLM を開発する際の主な課題は、トレーニング データセットのサイズとモデルのパフォーマンスの間の最適なバランスを見つけることです。 この課題に対処するため、Microsoft は最近、より少ない例を使用して効率的なエンコーディング言語モデルをトレーニングするための新しい手法を紹介する論文を発表しました。この論文では、WaveCoder モデルを紹介し、同様の数の例でトレーニングされた他のエンコーディング LLM よりも優れたパフォーマンスを発揮すると主張しています。 WaveCoder を補完するために、Microsoft は 20,000 種類のコード例を厳選したデータセットである CodeOcean を開発しました。このデータセットは、コーディング アプリケーションの基本モデルの微調整を強化できます。 正しいエンコード例を選択してください図1 CodeOceanパイプライン WaveCoder は印象的な LLM モデルですが、この論文でさらに興味深いのは、付随するデータセットである CodeOcean です。 CodeOcean は、コスト効率と品質のバランスが取れたデータセットを作成するという大きな課題を解決します。研究者らは、多様性を最大限に高めたデータセットであれば、含まれる例の数が限られている場合でも、印象的な結果を生み出すことができると主張している。 研究チームは、200 万のコメントとコードのペアを含む大規模なコーディング データセットである CodeSearchNet から始めました。彼らは、BERT ベースのTransformerモデルを使用して各例の埋め込みを生成し、複雑な情報を数字のリストに変換しました。 彼らは、埋め込みにクラスタリング アルゴリズムを適用し、類似性に応じて例を並べ替えました。このアプローチにより、研究者は元のデータセットから多様性を最大化するサブセットを抽出できます。 説明を追加 コア データセットを構築した後、研究者はコードと手順を含むトレーニング例を作成する必要があります。これを実現するために、彼らは生のコード例から指導データを生成するジェネレーター-ディスクリミネーター フレームワークを作成しました。当初、彼らは GPT-4 を使用して特定のシナリオでのタスク定義を作成しました。これらの初期タスク定義は、ガイダンス プロンプトと組み合わせて GPT-3.5 に送られ、追加の例に対応する指示が生成されます。 図2 CodeOceanのジェネレーター・ディスクリミネーターフレームワーク 識別要素については、研究者らは別の評価プロンプトを開発しました。このプロンプトは、コードと命令の例とともに、評価のために GPT-4 に提供されます。 CodeOcean パイプラインは、適切な例を使用して将来のトレーニング例を生成します。 研究者たちは、この反復的なプロセスを通じて 20,000 個の高品質な教育サンプルを生成しました。例は、コード生成、コード要約、言語変換(あるプログラミング言語から別のプログラミング言語へ)、およびコード修復という 4 つの異なるコーディング タスクのカテゴリにわたります。これら 4 つのカテゴリは、LLM コーディング タスクの大部分を構成します。 WaveCoder のトレーニング図 3. WaveCoder は、同様の数の例でトレーニングされた他のエンコーディング LLM よりも優れたパフォーマンスを発揮します。 LLM をエンコードするためのトレーニング例を生成する方法は多数あります。しかし、Microsoft の CodeOcean は、一般化と例の効率性に重点を置いている点で独特です。大量のデータに依存する研究とは異なり、CodeOcean はより小さなデータセットで高いパフォーマンスを実現できます。 CodeOcean の有効性を実証するために、研究者らは 3 つのコーディング言語モデル (StarCoder-15B、CodeLLaMA (7B および 13B)、DeepseekCoder-6.7B) を微調整しました。データセットのサイズを考慮すると、微調整は高速かつコスト効率に優れています。研究者らは、微調整されたモデルを 3 つの主要なエンコード ベンチマーク (HumanEval、MBPP、HumanEvalPack) で評価しました。 CodeOcean で複数回トレーニングすることで、すべてのモデルがこれらのベンチマークで大幅な改善を示します。コード生成の面では、研究者は WaveCoder の影響と限界について次のように述べています。「微調整プロセスの後、WaveCoder モデルのパフォーマンスは、ベース モデルや一部のオープン ソース モデルと比較して大幅に向上しましたが、独自のモデル (GPT-4 や Gemini など) や、70,000 を超えるトレーニング データを使用してトレーニングされたモデルに比べるとまだ遅れをとっています。」 78,000 のトレーニング例の場合、WaveCoder と WizardCoder のパフォーマンスの違いはわずかです。これは、「洗練された多様な命令データにより、命令チューニングの効率が大幅に向上する可能性がある」ことを示しています。 WaveCoder は、特にコードの要約と修復タスクに優れています。ほぼすべてのプログラミング言語において、他のオープンソース モデルよりも優れたパフォーマンスを発揮します。この成功は、コード LLM の一般化能力を強化するためにコード関連のタスクを定義および分類することの有効性を浮き彫りにしています。 Microsoft はまだ WaveCoder と CodeOcean のモデル、コード、データを公開していないが、 Hugging Faceでの議論から、同社がそれらを公開するかどうかを検討していることがうかがえる。今後、研究者たちは、より大きなデータセットの効果と、CodeOcean と他のコーディング データセットを組み合わせることで得られる潜在的な利点を調査することを目指しています。 原題:小さな自動生成データセットを使用してコーディング LLM をトレーニングする方法、著者: Ben Dickson |
<<: 周紅一の2024年大模型予測は8つの点を検証し、ソラの出現は予想を超えていると述べている
>>: 大規模言語モデルとベクトルデータベースに基づくニュース推奨システムの開発
ヘルスケア、小売、テクノロジー業界の IT リーダーが 2020 年の戦略的優先事項を共有します。ヒ...
新年の初めに、酉年の運勢を計算することは、多くの若者が夕食後に好んで行うことです。 「占い」はどちら...
[[250441]]この記事はGeek View (ID: geekview) の許可を得...
信頼関係を築く上で、私たちの表情が果たす役割は非常に大きいにもかかわらず、ほとんどのロボットの顔はプ...
Andrej Karpathy は、ディープラーニング コンピューター ビジョン、生成モデル、強化学...
2021年6月23日、「変革の新パラダイム」をテーマにした2021年第4回パラダイム会議および企業イ...
3D プリントビジネスは近年継続的に発展しており、一般の人々の間でますます人気が高まっています。最...
[[423982]]バイナリ ツリーが与えられた場合、そのノード値のボトムアップ レベルのトラバーサ...
最近、「両会」の政府活動報告では、人工知能が再び言及された。「新世代人工知能の研究開発と応用を強化し...
YESOUL高反発腹筋ローラーは、1月7日よりXiaomi Youpinでクラウドファンディングで販...
Microsoft は、多くの非営利団体のパートナーと協力して、これらのツールが失明や運動障害など...
皆さん、GPT-4 のパラメータは 1 兆を超える可能性があります。最近、アメリカの有名なハッカーで...