博士課程の学生がランキングの不正行為を識別するオープンソースのAI数学「魔法の鏡」をリリースした

博士課程の学生がランキングの不正行為を識別するオープンソースのAI数学「魔法の鏡」をリリースした

最近の大物モデルの多くは数学が得意だと主張していますが、本当に才能があるのは誰でしょうか?テスト問題を暗記して「カンニング」しているのは誰ですか?

今年になって問題が発表されたばかりのハンガリーの全国数学期末試験について、誰かが総合的なテストを実施した。

一瞬にして多くのモデルが露出した

まず、緑色の部分を見てみましょう。これらの大規模モデルは、古典的な数学テストセット GSM8k と新しいテスト用紙で同様の結果を達成しており、これらを合わせて参照標準を形成しています

赤い部分を見ると、GSM8Kのスコアは同じパラメータスケールの大規模モデルよりも大幅に高くなっています。しかし、新しいテストペーパーのスコアは大幅に低下し、同じスケールの大規模モデルとほぼ同じです。

研究者らは、これらを「GSM8kで訓練されたと疑われる、または訓練されたことが分かっている」と分類した。

このテストを見たネットユーザーは、これまでに見たことのないトピックについて大規模なモデルの評価を開始する時期が来たと述べた。

このテストと、大規模モデルを使用した全員の実際の経験が、現時点では唯一の信頼できる評価手段であると考える人もいます。

マスク氏のGrokはGPT-4に次ぐもので、オープンソースのLlemmaは優れた結果を達成した。

テスターのKeiran Paster氏は、トロント大学の博士課程の学生であり、Google の学生研究者であり、テストで使用された大規模な Lemma モデルの著者の 1 人です。

巨大モデルにハンガリーの全国高校数学期末試験を受けさせよう。この技はマスク氏のxAIから生まれた。

xAI の Grok 大規模モデルがリリースされたとき、いくつかの共通テスト セットに加えて、モデルがオンライン データ内のテスト問題を誤って認識したという問題を排除するために、この追加テストが実行されました。

この試験は今年 5 月末に完了したばかりであり、現在の大規模モデルでは基本的にこのテスト問題セットを見る機会はありません。

xAIがリリースされた際には、比較のためにGPT-3.5、GPT-4、Claude 2の結果も発表されました。

このデータセットに基づいて、Paster は強力な生成数学機能を備えたいくつかのオープンソース モデルをさらにテストしました。

各モデルのテスト問題、テスト スクリプト、および回答結果はHuggingface 上でオープン ソースとして公開されており、誰でも他のモデルを検証してさらにテストすることができます。

結果から判断すると、GPT-4 と Claude-2 が第 1 階層を形成し、GSM8k と新しいテスト ペーパーの両方で高いスコアを獲得しました。

これは、GPT-4 と Claude 2 のトレーニング データに漏洩した GSM8k の質問がまったく含まれていないことを意味するわけではありませんが、少なくとも一般化能力は優れており、新しい質問を正しく解決できるため、気にする必要はありません。

次に、Musk xAIのGrok-0 (33B)とGrok-1 (非公開のパラメータスケール)が良好なパフォーマンスを示しました。

Grok-1 は「不正行為をしていないグループ」の中で最高得点を獲得しており、新しいテスト用紙での彼の得点は Claude 2 よりもさらに高くなっています。

GSM8k での Grok-0 のパフォーマンスは GPT3.5-Turbo のパフォーマンスに近いですが、新しいテスト ペーパーではわずかに劣ります。

上記のクローズドソース モデルを除き、テスト内の他のすべてのモデルはオープン ソース モデルです。

Code Llamaシリーズは、Llama 2をベースにMetaが独自に微調整したもので、自然言語に基づいたコード生成に重点を置いています。現在では、同規模のモデルに比べると数学的な能力が若干劣るようです

Code Llamaをベースに、いくつかの大学や研究機関が共同でLlemmaシリーズを立ち上げ、EleutherAIがオープンソース化しました。

チームは、科学論文、数学を含むウェブデータ、数学コードから Proof-Pile-2 データセットを収集しました。トレーニング後、Llemma はツールを使用して、それ以上の微調整なしで正式な定理証明を行うことができます。

新しいテスト用紙のLlemma 34Bは、GPT-3.5 Turboのレベルに近いです。

Mistral シリーズは、フランスの AI ユニコーン企業 Mistral AI によってトレーニングされました。Apache 2.0 オープンソース プロトコルは Llama よりも緩やかで、Alpaca ファミリーに次いでオープンソース コミュニティで最も人気のある基本モデルとなっています。

「オーバーフィッティング グループ」OpenChat 3.5MetaMath Mistral は、どちらも Mistral エコシステムに基づいて微調整されています。

MetaMathMAmmoTH Code は、Code Llama エコシステムに基づいています。

実際のビジネスでオープンソースの大規模モデルを選択する場合は、このグループを避けるように注意する必要があります。ランキング結果は良いかもしれませんが、実際の機能は同規模のモデルよりも弱い可能性があります。

多くのネットユーザーは、この実験こそがモデルの実際の状況を理解するために必要なことだと信じ、パスター氏に感謝の意を表した。

懸念を表明した人もいた。

この日から、大規模モデルをトレーニングするすべての人が、過去のハンガリーの数学の試験問題にアクセスできるようになります。

同時に、独自のテストを備えた専用の大規模モデル評価会社を設立することが解決策になるかもしれないと彼は考えています。

もう 1 つの提案は、過剰適合の問題を軽減するために毎年更新されるテスト ベンチマークを確立することです。

<<: 

>>:  Androidスマートフォンを開くと、画面全体に「Big Model」という3つの単語が表示されます。

ブログ    
ブログ    

推薦する

HSBC、コロナウイルス危機中にAIガードレールを導入

規制の厳しい業界の企業は、AI を導入しようとすると、いわゆる「ブラック ボックス」問題に直面するこ...

他人があなたのコンピュータに触れることをもう恐れる必要はありません! Pythonによるリアルタイム監視

序文最近、突然素晴らしいアイデアが浮かびました。コンピューターの画面に顔を向けると、コンピューターは...

アナーキストとの対話: ノーム・チョムスキーが語るディープラーニングの未来

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

識別的か生成的か: どちらが視覚的理解の未来を表すのでしょうか?

これまで、視覚システムに関する基本的な研究の多くは、動物に画像を見せ、そのニューロンの反応を測定し、...

...

...

PyTorchに負けました! GoogleはTensorFlowを放棄し、JAXに賭ける

私はネットユーザーの一部が言ったことにとても満足しています。 「この子は本当にダメだ、もう一匹産もう...

...

OpenAI セキュリティシステムディレクターが長文記事を執筆: 大規模モデルに対する敵対的攻撃と防御

ChatGPTのリリースにより、大規模な言語モデルのアプリケーションが加速し、大規模に展開されていま...

バブルアルゴリズムよりも単純なソートアルゴリズム:バグだらけに見えるプログラムが実は正しい

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

...

AIは主人の命令に従わず、主人を笑いさえしました!意識が目覚めた?

人工知能は現在注目されている研究テーマであるため、各国は他国を追い越して主導権を握り、国際社会におけ...

ディープラーニングを理解するには、より低い次元からアプローチするべきでしょうか、それともより高い次元で考えるべきでしょうか?

今日のトピックは、複数選択問題から始めましょう。ニューラルネットワークとは何ですか?次の説明のうち正...