すべてのオープンソースモデルを超え、クロードとバードを破り、プログラミングタスク専用の大規模モデルが登場

すべてのオープンソースモデルを超え、クロードとバードを破り、プログラミングタスク専用の大規模モデルが登場

最近、大規模言語モデル(LLM)の継続的なリリースにより、LLMランキング競争が熱を帯びてきており、研究者たちは新しいLLM評価システムで自身のモデルのスコアを継続的に更新しようとしています。

中でも、スタンフォード大学が発表した新しい大規模言語モデルランキングであるAlpacaEvalは、非常に人気があります。これは、より高速で信頼性の高いLLMに基づく全自動評価ベンチマークです。 GPT-4、ChatGPTなど、多くの有名なモデルがリストに載っています。

少し前に、マイクロソフトの中国チームがリリースしたWizardLM(微調整された7B LLaMAモデル)が、数多くのモデルの中で4位を獲得しました。それより上位のモデルは、GPT-4、Claude、ChatGPTでした。WizardLMのパフォーマンスは依然として非常に優れていることがわかります。

最近、WizardLM チームは WizardCoder-15B の新しい大型モデルをリリースしました。その理由として、研究では、StarCoder などのコードクラスを生成する大規模言語モデル (Code LLM) が、コード関連のタスクで優れたパフォーマンスを達成したと述べています。しかし、既存のモデルのほとんどは、命令の微調整なしに、大量の生のコードデータで事前トレーニングされているだけです。そこで本研究では、コード領域にEvol-Instruct(難易度の異なる命令を生成する)アプローチを適用することで、コードLLMに洗練された命令の微調整を提供するWizardCoderを提案する。

HumanEval、HumanEval+、MBPP、DS1000 の 4 つのコード生成ベンチマークにおいて、WizardCoder は他のすべてのオープン ソース コード LLM を大幅に上回ります。さらに、WizardCoder は、HumanEval および HumanEval+ において、Anthropic の Claude や Google の Bard などの最大のクローズドソース LLM よりも優れたパフォーマンスを発揮します。

  • 論文アドレス: https://arxiv.org/pdf/2306.08568.pdf
  • コードアドレス: https://github.com/nlpxucan/WizardLM

方法論の面では、この研究はWizardLMが提案したEvol-Instruct法に触発されたと述べています。さらに、この研究では、コード命令をより複雑にして、コード事前トレーニング済み大規模モデルの微調整効果を向上させることも試みました。

コード生成の分野では、統一されたコードプロンプトテンプレートは次のとおりです。

この記事で使用されている 5 つのタイプは次のとおりです。

この研究では、WizardCoder をトレーニングするために以下のプロセスを採用しました。当初、彼らは StarCoder 15B をベースとして使用し、Evol-Instruct によって進化したコード命令に従うトレーニング セットを使用して微調整を行いました。微調整プロンプト形式の概要は次のとおりです。

WizardCoder のパフォーマンスはどうですか?

クローズドソースモデルとの比較。 GPT4、Claude、Bard などのコード生成用の SOTA LLM は、主にクローズド ソースです。ただし、これらのモデル API にアクセスするのは困難です。この研究では、LLM-Humaneval-Benchmarks から HumanEval と HumanEval + のスコアを取得するという代替アプローチを採用しました。下の図 1 に示すように、WizardCoder は Claude-Plus (59.8 vs 53.0) と Bard (59.8 vs 44.5) を上回り、3 位にランクされています。

WizardCoder モデルのサイズはこれらのモデルに比べてはるかに小さいことに注意してください。さらに、WizardCoder は、細かく調整された命令を備えた他のオープン ソース LLM に比べて大きな利点があります。

オープンソース モデルとの比較。表 1 は、HumanEval および MBPP ベンチマークにおける WizardCoder と他のオープン ソース モデルとの包括的な比較を示しています。表 1 の結果は、WizardCoder がすべてのオープン ソース モデルに比べてパフォーマンス面で大きな優位性を持っていることを示しています。

要約すると、図 1 と表 1 の実験結果から、次の結論を導き出すことができます。

  • WizardCoder は、Claude、Bard、PaLM、PaLM-2、LaMDA などの最大のクローズドソース LLM よりもはるかに小さいにもかかわらず、それらよりも優れたパフォーマンスを発揮します。
  • WizardCoder は、StarCoder、CodeGen、CodeGee、CodeT5+ を含むすべてのオープン ソース コード LLM よりも優れています。
  • WizardCoder は、InstructCodeT5+、StarCoder-GPTeacher、Instruct-Codegen-16B など、命令の微調整によりすべてのオープン ソース コード LLM を大幅に上回ります。

次の図は、DS-1000 ベンチマークにおけるさまざまなモデルの結果を示しています。

<<:  CVPR 自動運転チャレンジで優勝したのはどのようなソリューションでしょうか?

>>:  AIコンテンツゼロ!純粋なランダム数学は現実的な3D世界を無限に生成する、プリンストン大学の中国人による研究

ブログ    

推薦する

...

2021年の人工知能の注目分野

[[383142]]人工知能、またはよく耳にする AI とは、人間が作った機械が示す知能を指し、コン...

...

AIの負担を軽減する時が来た。Python AIライブラリ5選のおすすめ

機械学習は興味深いものですが、作業範囲が広く複雑で困難です。開発者として学ぶべきツールはたくさんあり...

AI画像拡大ツール、完全無料!ワンクリックで不良ピクセルにさよなら

写真は思い出を保存するための最も便利なツールの一つです。テクノロジーのおかげで、ある意味カメラとも言...

...

意見: 機械学習は私たちの注目を必要としています!

機械学習は、私たちがもっと注目する価値のある強力なテクノロジーです。機械学習アプリケーションについて...

タオバオライブストリーミングトラフィックと供給間のエンドツーエンドの連携の調査

1. タオバオライブの体系的な制御機能の進化現在、Taobao Live の推奨アルゴリズムの焦点は...

2020年の新自動運転技術レポートが公開されました!

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

マーケターがAIと機械学習を活用して顧客にリーチする方法

数十年前、技術者が初めて人工知能の概念を生み出したとき、彼らは人間の知能を模倣できる技術を生み出そう...

「より深く」「より鮮明に」見る - 超高精細画像におけるディープラーニングの応用

毎日肖像画を模写する練習を続けた結果、この芸術家はいくつかの重要な特徴だけを描いた人間の顔を完全に描...

Python、Java、C++がすべて含まれています。このGitHubプロジェクトは、複数の言語で古典的なアルゴリズムを実装しています。

古典的なデータ構造とアルゴリズムをいくつ知っていますか?大企業で面接を受けてみませんか?アルゴリズム...

「ハードコア」AIが私たちの家庭に導入されるまでにはどれくらいの時間がかかるのでしょうか? 最先端技術には依然としてブレークスルーが必要

お腹が空いたら、キッチンロボットがミシュランレストランの基準に匹敵するステーキを調理します。運転した...

...