アルパカファミリーの「最強のオープンソースコードモデル」が「スーパーカップ」を発売しました—— 今朝、Meta は Code Llama の 70B バージョンのリリースを発表しました。 写真 HumanEval テストでは、Code Llama-70B がオープンソース コード モデルの中で 1 位となり、GPT-4 を上回りました。 今回発売された超特大カップは、小型バージョンと同様のライセンス契約を維持しており、商用利用も引き続き無償でご利用いただけます。 写真 バージョンとしては、いつも通り、オリジナル版、自然言語命令向けに微調整されたInstruct版、Python向けに微調整されたPython版に分かれています。 GPT-4 に勝ったのは Instruct バージョンで、pass@1 スコアが 67.8 となり、GPT-4 の 67 ポイントを上回りました。 34B モデルと比較すると、ベーシック バージョンと Instruct バージョンのスコアはそれぞれ 8.6% と 63.4% 向上しました。 写真 Code Llama のすべてのバージョンは、コンテキストの長さが最大 100,000 トークンの 16,000 トークンのシーケンスでトレーニングされます。 つまり、Code Llama はより長いコードを生成するだけでなく、ユーザーのカスタム コード ベースからさらにコードを読み取ってモデルに渡すこともできます。 これにより、特定の問題に関連するコードをすばやく見つけることができるため、大量のコードをデバッグするときにユーザーがどこから始めればよいかわからないという問題が解決されます。 MetaのCEO、マーク・ザッカーバーグ氏も自身の個人ブログでこのニュースを発表し、70B Code Llamaに対する誇りを表明した。 写真 注意深いネットユーザーもザッカーバーグ氏の投稿でその秘密を発見した。 ラマ3が来るの?
実際、投稿の最後でザッカーバーグ氏は、これらの結果がラマ3に適用できることを望んでいると述べた。 写真 ラマ3は本当に来るのでしょうか? ラマ3に関する噂は昨年8月にはすでに出始めていたが、ラマ3のトレーニングが進行中であることをザッカーバーグ氏が正式に明らかにしたのは先週になってからだった。 同時に、Meta はコンピューティング能力をさらに拡大しており、今年末までに 35 万台の H100 を導入する予定です。 他のグラフィック カードも H100 に変換すれば、Meta の総計算能力は 600,000 枚の H100 に相当します。 写真 しかし、ザッカーバーグ氏が明らかにした情報はネットユーザーの好奇心を満たすものではなかったようで、ラマ3がいつ発売されるのかについては議論が尽きない。
この問題に関する公式ニュースはまだありませんが、今年の第 1 四半期になるのではないかと推測する人もいます。 写真 しかし、Llama 3 が今後もオープン ソースであり続けることは確かです。 同時に、ザッカーバーグ氏は、AGI は次世代の人工知能の主要なシンボルとなり、Meta が追求する目標でもあると述べました。 AGI の実現を加速するために、Meta は FAIR チームと GenAI チームも統合しました。 写真 ボリュームパラメータの数量は必要ですか?Llama 3の「偶然の発見」に加えて、ネットユーザーからはCode Llama自体についても多くの疑問と期待が寄せられた。 まず、Code Llama を実行するために必要なハードウェア リソースに関して、一部のネットユーザーは、Apple M2 Max などのチップ上で実行されることを期待しています。 写真 しかし、現実には、CUDA は N カードなしでは使用できないため、M シリーズの Apple チップ上での Code Llama の実行結果は理想的ではありません。 写真 N カードに関しては、モデルが量子化されれば 4090 で駆動できるのではないかと推測する人もいます。 また、この考え方は楽観的すぎると疑問視する人もおり、4090 がもたらす定量化の程度はこのモデルには適用できないかもしれないとも言われています。 しかし、計算速度とビデオ メモリ領域をトレードオフできる場合は、代わりに 2 つの 3090 を使用するのも悪くありません。 写真 しかし、4090 は消費者向けグラフィックス カードですが、ほとんどのプログラマーは 70B モデルを効率的に実行できるデバイスをまだ持っていない可能性があります。 これにより、別の疑問も生じます。ヒープ パラメータは本当に必要なのでしょうか? Pass@1 ランキングでは、DeepSeek チームの DeepSeek Coder は Code Llama よりも 2.3 ポイント高いパフォーマンスを示しましたが、パラメータの数は 67 億個に過ぎず、後者の 10 分の 1 以下でした。 写真 垂直に比較すると、DeepSeek Coder の 6.7B バージョンと 33B バージョンは 2.5 ポイントしか差がなく、パラメータ数によるパフォーマンスの向上は Code Llama ほど顕著ではありません。 写真 したがって、パラメータの数を増やすことに加えて、Meta はモデル自体にさらに力を入れる必要が生じる可能性があります。 写真 参考リンク: |
<<: 精度が 20% 未満なので、GPT-4V/Gemini はコミックを理解できません。最初の画像シーケンスベンチマークがリリースされました
>>: AIGC教育産業パノラマレポート:AIティーチングアシスタントと家庭教師が現実のものとなり、学習マシンが新たな機会をもたらす
企業向けにディープラーニングを実装する前に、ビジネスリーダーがこの画期的なテクノロジーの機能と特徴...
[[282875]] 数十年前、日本は避けることの難しい一連の長期的経済課題に直面していました。 1...
マイクロソフトは、有名なOfficeに大きな変更を加え始めました。5年間使用されてきたOfficeア...
信頼とセキュリティとは何でしょうか? 現在の世界ではどのような役割を果たしているのでしょうか? 多く...
[[422893]] 01 人工知能アラン・チューリングは人工知能を次のように定義しました。カーテン...
最近、Llama 2 のオープン ソース化により、Yann LeCun 氏や業界関係者の多くが「ビッ...
人工知能がスマートフォンアプリとユーザーエクスペリエンスをどのように変えているのか。進化し続けるテク...
共通のデータ構造とアルゴリズム最も基本的なデータ構造とアルゴリズムは次のとおりです。ソートアルゴリズ...
海外メディアは、情報分析プロバイダーRELXの新しいレポートによると、回答者の95%が人工知能の人材...