最近、天地FT-Data Rankerコンテストが終了し、天一クラウドインテリジェントエッジビジネスユニットのAIチーム(以下、天一クラウドAIチーム)は、大規模言語モデル(LLM)トレーニングデータ強化における優れた研究により、大規模言語モデル微調整データコンテスト-7Bモデルトラックで優勝しました。 FT-Data Rankerコンペティションは、大規模言語モデル研究のためのデータ中心のコンペティションで、北京大学やHantecを含む著名な大学、研究機関、企業から約400の優秀なチームが参加しました。天一クラウドは激しい競争の中で際立っており、強力な技術革新能力を発揮しました。 データは、大規模言語モデル (LLM) の機能を構築する上で重要な役割を果たします。データセットのより優れた構築と処理は、大規模言語モデルの分野での研究の焦点となっています。このコンペティションの核心は、データセットの品質を独立して正確に評価・改善し、ベンチマーク主導のデータ開発プロセスの形成を加速し、大規模言語モデルのデータ処理能力を強化し、データ品質とデータ最適化に関する分野の理解を深めることです。このコンテストでは、微調整段階のデータに特に重点が置かれ、参加者は元のデータセットをクリーンアップ、フィルタリング、強化し、新しいデータセットを使用して特定のモデルを微調整し、テスト セットでパフォーマンスをランク付けする必要があります。 コンテストの総合選抜タスクでは、天一雲AIチームが独自にデータ処理フローを構築し、複数の文書重複除去と文字列フィルタリング演算子を使用して低品質の大規模なオリジナルコーパスを処理し、高品質のモデルトレーニングデータを取得しました。同時に、テキスト要約タスクでは、天一雲AIチームはパラダイム転送(Paradigm Transfer)とモデル能力蒸留(Distillation)の方法を革新的に採用し、生成モデルを使用してオリジナルコーパス内の質問と回答を要約データとして処理および移行し、モデルのランダム性を0に設定して、トレーニングデータを間接的に拡張しました。上記の方法と戦略に基づいて、チームは元のコーパスに基づいて豊富で多様なタスクトレーニングセットを構築し、モデルが競争タスクをよりよく学習して理解できるようにしました。この計画の革新性と実用性は審査員から高く評価されました。 このコンテストでチームが使用した大規模言語モデルトレーニングデータ強化技術は、天一クラウドチームのモデル開発・制作業務で広く活用されています。例えば、天一クラウドの政務ビッグモデル「匯澤」の研究開発では、トレーニングデータ強化戦略とアルゴリズムを幅広く採用することで、モデルのさまざまな機能が向上しました。これにより、「匯澤」は包括的な政務知識、強力な意図理解能力、幅広い応用、安全性と信頼性などの利点を備え、政策相談、政務指導、12345席支援、スマートオフィスなどのシーンを効率的に強化し、都市ガバナンスのレベル向上に貢献します。 天一クラウドは今後も人工知能関連技術と実用化の革新を推進し、より包括的でインテリジェントな製品とサービスで数千の業界のデジタル変革を実現していきます。 |
<<: word2vecの作者はイリヤらとの10年間の恨みを明かした。seq2seqも私のアイデアだった
>>: OpenAIの公式プロンプトエンジニアリングガイド:ChatGPTはこのようにプレイできます
肯定的ですか? 否定的ですか? 中立的ですか? Stanford CoreNLP コンポーネントと数...
10月10日、最近のレポートによると、OpenAIの人工知能チャットボットChatGPTの収益成長が...
[[121931]]この記事の参考文献: Li Yunqing 他著「データ構造 (C 言語版)」、...
3月15日、アメリカの隔週刊ウェブサイト「フォーブス」は「2021年の人工知能:期待できる(または期...
汎用人工知能 (AGI) に向けた多くの方向性の中で、マルチモーダル大規模モデル (MLLM) の開...
人類は歴史の中で長い道のりを歩んできましたが、現在の技術の進歩は人類の進歩のペースを加速させ、すべて...
最近、大規模言語モデル (LLM) において大きな進歩が見られました。特に、Generative P...
中学校では、数学の描画ほど恐ろしいものはありませんでした。多くの問題にはすぐに利用できる解析的解法が...