アリババクラウドは、70億のパラメータを持つTongyi Qianwen大規模モデルをオープンソース化し、無料で商用利用可能に

アリババクラウドは、70億のパラメータを持つTongyi Qianwen大規模モデルをオープンソース化し、無料で商用利用可能に

大規模モデルの開発動向はオープンソースへと移行し始めています。

周知のとおり、ChatGPT、GPT-4などのスターモデルはオープンソースではありません。それに応じて、オープンソース分野では、Metaが最近リリースしたLlama 2が、無料かつ商用利用可能な大規模モデルシリーズとして特に注目を集めています。

今日、オープンソース分野にもう一つの朗報が届きました。AIモデルコミュニティModelScopeが、Qwen-7BとQwen-7B-Chatという2つのオープンソースモデルを発表しました。Alibaba Cloudは、これらがTongyi Qianwenの70億パラメータ汎用モデルと対話モデルであることを確認しました。

最も重要なのは、どちらのモデルもオープンソースで、無料で、市販されていることです。


  • マジックタワーモデルスコープ: https://modelscope.cn/models/qwen/Qwen-7B/summaryhttps://modelscope.cn/models/qwen/Qwen-7B-Chat/summary
  • ハギングフェイスアドレス: https://huggingface.co/Qwen
  • GitHub アドレス: https://github.com/QwenLM/Qwen-7B

具体的には:

  • Tongyi Qianwen-7B(Qwen-7B)は、Alibaba Cloudが開発したTongyi Qianwen大規模モデルシリーズの70億パラメータモデルです。 Qwen-7B は、超大規模な事前トレーニング データでトレーニングされた、Transformer に基づく大規模言語モデルです。事前トレーニングのデータの種類は多様で、大量のオンラインテキスト、専門書、コードなど、広範囲にわたります。中国語や英語を含む複数の言語をサポートするベースモデルです。2兆以上のトークンのデータセットでトレーニングされており、コンテキストウィンドウの長さは8kに達します。
  • Qwen-7B-Chat は、人間の認知に合わせて調整された Qwen-7B ベース モデルに基づく中国語 - 英語対話モデルです。

オープンソース コードは、Qwen-7B および Qwen-7B-Chat の量子化をサポートし、ユーザーがコンシューマー グレードのグラフィック カードにモデルを展開して実行することをサポートします。

モデルをダウンロードしたいユーザーは、MoDa コミュニティから直接モデルをダウンロードするか、Alibaba Cloud Lingji プラットフォームを通じて Qwen-7B および Qwen-7B-Chat にアクセスして呼び出すことができます。Alibaba Cloud は、モデルのトレーニング、推論、展開、微調整など、幅広いサービスをユーザーに提供します。

実際、アリババクラウドは今年4月にはすでに自社開発のビッグモデル「Tongyi Qianwen」をリリースしており、今回の2つのオープンソースモデルは研究者がビッグモデルを利用するハードルを大幅に下げた。この動きにより、アリババクラウドは中国で初めて大規模モデルオープンソースの仲間入りを果たした大規模テクノロジー企業となる。

複数の権威ある評価において、Tongyi Qianwen 7B モデルは国内外の同規模のモデルをはるかに上回る結果を達成し、業界最強の中国語と英語の 7B オープンソース モデルとなりました。

Tongyi Qianwen 7B 事前トレーニング済みモデルは、複数の権威あるベンチマーク評価で優れたパフォーマンスを発揮しました。中国語と英語の機能は、国内外の同規模のオープンソース モデルの機能をはるかに上回っており、一部の機能は 12B や 13B 規模のオープンソース モデルの機能さえ上回っています。

英語能力評価ベンチマーク MMLU では、Tongyi Qianwen 7B モデルは、主流のオープンソース モデル 7B、12B、13B よりも高いスコアを獲得しました。このベンチマークには 57 の分野からの英語の質問が含まれており、人文科学、社会科学、科学、工学の総合的な知識と問題解決能力がテストされます。

中国の常識能力評価ベンチマーク C-Eval では、Tongyi Qianwen は検証セットとテストセットの両方で最高得点を獲得した 7B オープンソース モデルであり、その堅実な中国語能力を実証しています。

数学の問題解決能力評価の GSM8K やコーディング能力評価の HumanEval などのベンチマークでも、Tongyi Qianwen 7B モデルは優れたパフォーマンスを発揮し、同サイズのすべてのオープンソース モデルや一部の大規模オープンソース モデルを上回りました。

Alibaba Cloudは、オープンソースのビッグモデルは、ユーザーがモデルのトレーニングと展開のプロセスを簡素化するのに役立つと述べました。ユーザーはモデルをゼロからトレーニングする必要はありません。事前にトレーニングされたモデルをダウンロードして微調整するだけで、高品質のモデルを迅速に構築できます。

Tongyi Qianwen のオープンソース化により、より多くの企業や機関がこの仲間入りを果たし、より多くの研究者に利便性をもたらすようになると信じています。

<<:  マスク氏がai.comドメイン名を購入しました!ウルトラマンは数千万ドルを費やしてそれを購入し、4ヶ月でアイアンマンに売却した

>>:  Jupyter のアップグレード: さまざまな大規模モデルを接続し、コードを生成し、チャットを通じてエラーを修正できます

ブログ    

推薦する

「ブロックチェーン+人工知能」は医療金融やその他の応用シナリオに応用されています

最近、国家インターネット金融セキュリティ技術専門家委員会と上海振聯公司は共同で「ブロックチェーン+A...

...

インテリジェント車両認識技術がスマートシティへの道を開く

著者:Chris Kadoch 氏は Rekor Systems の最高技術責任者です。 [[376...

...

機械学習がサプライチェーン管理を変える10の方法

[[431487]]サプライチェーン管理で機械学習を使用すると、日常的なタスクを自動化できるため、企...

私たちは人工知能によってどのように制御されているのでしょうか?

1970 年 11 月のライフ誌のインタビューで、ミンスキーは次のように警告しました。「コンピュー...

RLHF が LLM トレーニングの鍵となるのはなぜですか? AI専門家が5つの代替案を検討し、Llama 2のフィードバックメカニズムのアップグレードを説明

ChatGPTが主導する大規模言語モデルの時代において、避けては通れないトピックが「人間のフィードバ...

労働者の皆さん、ご注意ください: AI は組立ラインの労働者を置き換えるものではなく、管理者を置き換えるものです。

今後 15 年間で、人工知能によって米国の雇用が 40% から 50% 減少すると私は予測しています...

AlphaGo の最初のバグ: 囲碁アルゴリズムの最大の弱点は何でしょうか?

[[163852]]どれほど恐ろしいモンスターにも弱点はあります。なぜAlphaGoは皆を驚かせる...

ディープラーニングが従来の方法ほど効果的ではない典型的な事例にはどのようなものがありますか?

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

ドローン時代の到来により、人工知能航空機が有人戦闘機に取って代わり、パイロットは失業することになるのでしょうか?

まず、ドローンはソレイマニの暗殺に使用され、その後、アルメニアとアゼルバイジャンの戦場でドローンが活...

遺伝的アルゴリズムとPython実装におけるいくつかの異なる選択演算子

序文この論文では、遺伝的アルゴリズムにおけるいくつかの選択戦略についてまとめています。比例ルーレット...

F#の並列ソートアルゴリズムは実装が簡単

F# の並列ソート アルゴリズムで最も一般的な方法の 1 つは、まず処理するデータを複数の部分に分割...

ついに誰かが畳み込みニューラルネットワーク(CNN)を明確にした。

[[406748]]従来のニューラル ネットワーク レイヤーは完全に接続されています。サンプリング...