大規模言語モデルは、多くの下流タスクで驚くべき能力を発揮してきましたが、使用時にはまだいくつかの問題が残っています。その中でも、幻覚は現在、大規模モデルの実装に影響を与える重要な課題の 1 つです。 ChatGPT のリリースにより、実用化に向けた大規模モデルの潜在能力に学界や産業界の注目が集まり、幻覚に関する大量の研究が登場し始めました。 最近、テンセントAIラボは国内外の多くの学術機関と協力して、大規模モデル幻覚に関する研究のレビューを発表し、幻覚の評価、追跡、緩和について包括的な議論を行った。
大規模モデル錯視問題とは何ですか?研究者は、関連研究と大規模モデルの日常的な経験に基づいて、大規模モデルにおける一般的な幻覚の 3 つのタイプをまとめました。
上記の 3 種類の幻覚のうち、事実の知識と矛盾する幻覚が、現在、大規模モデル幻覚研究の中心的な焦点となっています。研究者たちは、このタイプの錯覚は研究がより困難であり、ユーザーの実際の体験に最も大きな影響を与えるためだと考えています。たとえば、大規模なモデルでは、医療アドバイスを生成する際に誤った薬の投与量をでっち上げ、専門的な医療知識を持たないユーザーを誤解させ、リスクを生み出す可能性があります。 大型模型の錯視と従来の錯視の主な違いは何ですか?大規模モデルの時代(ChatGPT がノードとしてリリースされる時代)以前には、幻覚問題も従来の自然言語生成タスクで一定量の研究が蓄積されてきました。研究者らは、グランドモデル幻覚と従来の幻覚研究のいくつかの重要な違いを次のようにまとめた。
大規模モデルの幻覚を評価する方法大規模モデル幻覚問題に関する研究の基礎となるのは、信頼性の高い評価ベンチマークです。既存の研究では、主に事実上の矛盾タイプの幻想を対象とした、いくつかの対象を絞った評価ベンチマークが提案されています。研究者たちはこれらのベンチマークを複数の観点から要約しました。
大きなモデルのような錯覚はどこから来るのでしょうか?研究者らはまた、大型モデルが幻覚を生み出す理由について、次のような予備的な分析を行った。
大きなモデルの錯覚を軽減する方法はありますか?大型モデルの幻覚現象を最小限に抑え、大型モデルの実用化を促進するために、最近、幻覚を軽減しようとする新しい研究が数多く登場しています。幻覚を軽減する方法は、事前トレーニング、指示の微調整、強化学習、推論など、大規模モデルのライフサイクル全体にわたって実行されます。研究者はそれを次のように要約しました。 事前トレーニング段階での緩和策 既存の研究では、大規模モデルの知識は主に、大量のテキストに基づく自己教師あり事前トレーニングから得られると考えられています。誤った知識や知識の不足が幻覚につながる可能性があることを考慮して、事前トレーニング段階での幻覚軽減作業は、主に事前トレーニングコーパスの品質を自動的に向上させる方法に焦点を当てています。たとえば、Llama 2 は、事前トレーニング コーパスを構築するときに、より正確な事実情報 (Wikipedia など) を含むデータ ソースを具体的にアップサンプリングします。 命令の微調整フェーズでの緩和策 微調整段階では、既存の研究では、大規模モデルにおける幻覚を減らすために、命令の微調整データの品質を向上させる方法も検討されてきました。事前トレーニング段階との違いの 1 つは、指示の微調整データの規模が小さく、手動でクリーンアップできることです。 さらに、OpenAIは、命令の微調整段階で行動のクローン化による幻覚のリスクもあると指摘した。この現象は、命令の微調整データに大規模モデルの能力を超えるサンプルが含まれていることを意味します。大規模モデルにそのようなサンプルを学習させると、大規模モデルはどんな質問に対しても非常に肯定的な口調で応答するように学習する可能性があります。そして、実際の使用段階になると、この大型モデルは、答え方が分からない質問に対して回答を捏造し、幻覚を引き起こすことになります。 強化学習フェーズの緩和 行動クローニングによって引き起こされる幻覚に対して、OpenAIの強化学習責任者であるジョン・シュルマン氏は、バークレー大学での講演で、OpenAIがChatGPTをトレーニングする際に幻覚を軽減するために使用した手法を共有しました。強化学習中、研究者たちは、大規模モデルが異なるトーンで応答したときに、そのモデルが犯したエラーに対して異なるペナルティを与えました。目標は、大規模なモデルが不確実性を表現し、疑問を持ち、間違いを認めるように促し、それによって自信過剰の幻想を軽減することです。 強化学習は、モデルに質問に答えることを拒否するように教えることで幻覚をある程度軽減しますが、追加の問題も生じます。強化学習は主に報酬モデルに依存して監督信号を提供しますが、報酬モデルは 100% の精度を達成できないため、生成されたモデルは過度に最適化される可能性があります。この場合、大規模なモデルは過度に保守的になり、正しく答えることができたはずのいくつかの質問に答えることを拒否します。 推論フェーズ中の緩和策 幻覚は推論段階で最も柔軟であるため、既存の研究の多くはこの方向に焦点を当てています。代表的なプラクティスは次のとおりです。 1.改善されたデコード戦略: 研究者は、より優れたデコード戦略を設計することで幻覚を軽減しようとしています。たとえば、推論時間介入法は、デコード中に事実に関連性の高い注意ヘッドにモデル活性化値を伝播することで幻覚を軽減します。 2.外部知識の活用:モデルをデコードする際にユーザーの質問に関連する知識を取得し、返答時にモデルがそれを参照できるようにすることで、幻覚の問題を大幅に解決できます。ここでの知識ソースは、非構造化テキスト、構造化テキスト (Web ページまたはデータベース)、さらにはさまざまなツールである可能性があります。 関連する知識を取得した後、応答を生成するときにその知識をモデルに直接提供するというアプローチもあります。もう 1 つのアプローチは、モデルが応答を生成した後にその応答をモデルに提供し、以前の応答に存在した錯覚をモデルが自己修正できるようにすることです。 3.不確実性の測定: 大規模モデルの出力応答の不確実性を測定することで、ユーザーは応答のどの部分が信頼できないかを理解できます。一般的な不確実性測定方法は、1) 出力スコア ベース、2) 説明ベース、3) 一貫性ベースです。 さらに、マルチエージェントインタラクション、命令設計、ヒューマンインザループ、モデルの内部状態の分析など、さらに多くの緩和ソリューションがあり、これらについては論文で詳しく紹介されています。 まとめと課題このレビューでは、大規模モデル幻覚問題の評価、説明、および緩和戦略を体系的に検討し、後続の研究者にインスピレーションを与えることを期待しています。さらに、大規模モデル幻覚問題の研究には、次のようないくつかの新しい研究方向と課題もあります。 1.信頼性の高い評価: 人間の好みに合わせた堅牢な自動指標の設計方法や、識別的評価方法と生成的評価方法のトレードオフや関係など、大規模モデルの幻覚問題の評価には依然として多くの課題が残っています。 2.多言語およびクロスリンガル幻覚: 大規模モデルは多言語およびクロスリンガルのシナリオで使用されることがよくありますが、研究者は、英語で優れたパフォーマンスを発揮する大規模モデルが他の言語では幻覚を示す可能性があることを発見しました。 3.マルチモーダル幻覚: 大規模言語モデルの出現により、研究者は言語と画像、ビデオ、音声の組み合わせなどの大規模なマルチモーダルモデルを研究するようになりました。これらのマルチモーダルシナリオでは、幻覚問題の研究により、新たな定義と課題がもたらされました。 4.モデル編集: モデル編集技術は、大規模なモデルのパラメータを直接編集することで、モデルに含まれる知識を変更し、その動作を変更します。モデル編集は幻覚を軽減する潜在的な方法となる可能性があります。 5.幻覚に対する攻撃と防御: GPT4 などの既存の商用大規模モデルは、事実に関する質問に対して優れた信頼性を示していますが、大規模モデルのセキュリティ戦略を回避する方法がいくつかあることが研究で示されています。幻覚に対する攻撃と防御も興味深い研究方向となるかもしれません。 |
>>: TensorFlowはWindows GPUのサポートを放棄し、多くのバグを抱えていると批判されている。2.0以降は徐々に消滅していくだろう。
[[264806]]新たな産業変革の中核的な原動力であり、将来の発展に関わる戦略的技術として、国は人...
人工知能 (AI) は世界中の産業に変化をもたらしており、交通も例外ではありません。テクノロジーが進...
AIはどのように機能し、スマートシティ開発の次のステップとして、都市や公共スペースにAIを導入でき...
[[431387]]ビッグデータダイジェスト制作ヘッダー画像のロボットの名前はAi-Da。彼女は史...
機械学習により、コンピュータグラフィックス(CG)シミュレーションがよりリアルになります。この方法は...
絶えず進化するデジタル環境において、「人工知能」(AI)という用語はもはや馴染みのない概念ではありま...
伝統的な人間中心の単純な倫理観は、人工知能の急速な発展によって脅かされています。哲学者、人類学者、倫...
半月も経たないうちに、第6波がまたやってきました!現地時間5月4日、米証券取引委員会は再び「上場廃止...
過去数年間で人工知能の利用は爆発的に増加しており、すでに多くのスタートアップ企業や大手企業が独自の ...
人間のようになることが AI 開発の究極の目標のようです。しかし、周知のとおり、人間には知恵と愚かさ...
テクノロジーが私たちの日常生活を支配する時代において、サイバー脅威はますます巧妙かつ危険なものになっ...