検索拡張生成による AI 幻覚問題の解決

検索拡張生成による AI 幻覚問題の解決

ラフルプラダン

出典| https://www.infoworld.com/article/3708254/addressing-ai-hallucinations-with-retrieval-augmented-generation.html

人工知能は現代の最も影響力のある技術になると期待されています。トランスフォーマー技術と生成 AIの最近の進歩は、大規模なイノベーションと創意工夫を解き放つ可能性を実証しています。

しかし、生成 AI には課題がないわけではありません。この変革的なテクノロジーの導入と価値創造を深刻に妨げる可能性のある課題もあります。生成 AI モデルの複雑さと機能が増大し続けるにつれて、入力データに基づかない出力の生成など、独自の課題も生じます。

これらのいわゆる「幻覚」は、モデルが、一貫性はあるものの、事実や入力とは文脈が合わない出力を生成する場合に発生します。この記事では、生成 AI の変革的影響について簡単に紹介し、このテクノロジーの欠点と課題を検討し、幻覚を軽減するために使用できる手法について説明します。

生成型AIの変革効果

生成 AI モデルは、ディープラーニングと呼ばれる複雑な計算プロセスを使用して大規模なデータセット内のパターンを識別し、その情報を使用して説得力のある新しい出力を作成します。モデルは、ニューラル ネットワークと呼ばれる機械学習技術を組み込むことでこれを実現します。ニューラル ネットワークは、人間の脳が情報を処理して解釈し、時間をかけて学習する方法にヒントを得たものです。

OpenAI の GPT-4 や Google の PaLM 2 などの生成 AI モデルは、自動化、データ分析、ユーザー エクスペリエンスの革新を加速すると期待されています。これらのモデルは、コードを記述したり、記事を要約したり、さらには病気の診断にも役立ちます。ただし、これらのモデルの実行可能性と最終的な価値は、その精度と信頼性に依存します。医療、金融、法律サービスなどの重要な分野では、信頼できる精度が不可欠です。しかし、生成 AI の潜在能力を最大限に引き出すには、すべてのユーザーにとってこれらの課題に対処する必要があります。

大規模言語モデルの欠点

LLM は基本的に確率的かつ非決定論的です。特定の単語シーケンスが次に出現する確率に基づいてテキストを生成します。 LLM には知識の概念がなく、推奨エンジンとしてトレーニングされたデータのコーパスを介したナビゲーションに完全に依存しています。生成されるテキストは、一般的に文法と意味の規則に従いますが、プロンプトとの統計的な一貫性を満たすことに完全に基づいています。

LLM のこの確率的な性質は、利点であると同時に欠点でもあります。正しい答えに到達すること、またはその答えに基づいて重要な決定を下すことが目標である場合、幻想は良くなく、有害となる可能性さえあります。しかし、目標が創造的な取り組みである場合、LLM を利用して芸術的創造性を開発し、アートワーク、ストーリーライン、およびスクリプトを比較的迅速に作成することができます。

ただし、目標に関係なく、 LLM モデルの出力を信頼できない場合は深刻な結果を招く可能性があります。これにより、これらのシステムの機能に対する信頼が損なわれるだけでなく、AI が人間の生産性とイノベーションを加速させる効果も大幅に低下することになります。

結局のところ、AI の良し悪しは、トレーニングに使用されたデータ次第です。 LLM 幻覚は主にデータセットとトレーニングの欠陥によって発生し、次のような側面が含まれます

  • オーバーフィッティング:オーバーフィッティングは、モデルがトレーニング データ (ノイズや外れ値を含む) を過度に学習した場合に発生します。過剰適合は、モデルの複雑さ、ノイズの多いトレーニング データ、またはトレーニング データの不足によって発生する可能性があります。その結果、パターン認識の品質が低下し、モデルが新しいデータに適切に一般化できなくなり、分類や予測のエラー、事実と矛盾する出力、信号対雑音比の低い出力、または完全な幻覚が発生します。
  • データの品質:トレーニングに使用されるデータの誤ったラベル付けや誤分類は、幻覚に大きな影響を及ぼす可能性があります。偏ったデータや関連データの欠如により、モデルの出力は正確に見えるかもしれませんが、モデルが推奨する決定の範囲によっては有害となる可能性があります。
  • データ不足:データ不足、または最新または関連性の高いデータの必要性は、錯覚を引き起こし、企業が生成 AI を導入するのを妨げる重大な問題の 1 つです。最新のコンテンツとコンテキスト データでデータを更新することで、錯覚や偏見を減らすことができます。
大規模言語モデルにおける幻覚への対処

LLM における幻覚の問題に対処するためのアプローチはいくつかあり、微調整、キュー エンジニアリング、検索拡張生成 (RAG) などの手法が含まれます。

  • 微調整とは、ドメイン固有のデータセットを使用してモデルを再トレーニングし、そのドメインに関連するコンテンツをより正確に生成できるようにすることです。ただし、モデルの再トレーニングや微調整には長い時間がかかり、継続的にトレーニングしないとデータはすぐに古くなります。さらに、モデルの再トレーニングにも多大なコスト負担がかかります。
  • ヒント エンジニアリングは、入力内のより説明的でわかりやすい特徴をヒントとして提供することで、 LLM が高品質の結果を生成できるようにすることを目的としています。モデルに追加のコンテキストを提供し、それを事実に基づいて構築すると、モデルが幻覚を起こす可能性を減らすことができます。
  • 検索強化生成 ( RAG) は、LLM の基盤に最も正確で最新の情報を提供することに重点を置いたフレームワークです。 LLM の応答性は、外部の知識ベースからの事実をモデルにリアルタイムで供給することで向上できます。
強化された生成データとリアルタイムデータを取得する

検索強化型生成は、大規模言語モデルの精度を向上させる最も有望な技術の 1 つです。 RAG をリアルタイム データと組み合わせると、幻覚が大幅に軽減されることが示されています

RAG により、企業は最新の独自データとコンテキスト データを使用して LLM を活用できるようになります。 RAG は幻覚を軽減するだけでなく、コンテキスト固有の情報で入力を充実させ、言語モデルがより正確でコンテキストに適した応答を生成できるようにします。エンタープライズ環境では、微調整は実用的ではないことがよくありますが、RAG は、パーソナライズされた情報に基づいたユーザー エクスペリエンスを提供するための低コストでメリットの高い代替手段を提供します。

RAG モデルの効率を向上させるには、LLM のネイティブ言語、つまりテキストの意味をエンコードする埋め込みと呼ばれる高次元の数学的ベクトルでデータを保存できる実用的なデータ ストアと RAG を組み合わせる必要があります。ユーザーがクエリを実行すると、データベースはそれを数値のベクトルに変換します。この方法では、同じ用語が含まれているかどうかに関係なく、ベクター データベースで関連テキストを照会できます。

セマンティック検索を使用して大量の非構造化データを保存および照会できる、可用性が高く、パフォーマンスの高いデータベースは、 RAG プロセスの重要なコンポーネントです。

<<:  インテルが第3四半期の財務報告を発表、人工知能と新ファウンドリ事業が注目を集める

>>:  ボストンダイナミクスは、ChatGPTなどの大規模モデルトレーニングを使用して、スポットロボット犬を「話すツアーガイド」に変えました。

ブログ    
ブログ    

推薦する

この記事ではSentinelと一般的なフロー制御アルゴリズムを紹介します。

[[401361]]この記事では主に、カウンター アルゴリズム、リーキー バケット アルゴリズム、...

11月に最も人気のあるオープンソース機械学習プロジェクトとRedditの議論トップ5

導入データ サイエンティストになる上で最も良いことの 1 つはプログラミングです。多くの場合、私は...

テクノロジーリーダーはAIGCの長所と短所をどう評価しているか

AIGC は、現代の偉大な技術的進歩の 1 つとして広く認められています。 OpenAI の Cha...

...

Cloudera Greater Chinaのテクニカルディレクター、Liu Lifang氏:より正確なAIにはより正確なデータが必要

アプリケーションの可観測性と AI の信頼、リスク、セキュリティ管理は、ガートナーが 2023 年に...

...

スマート製造を活用して持続可能な工場フロアを構築するにはどうすればよいでしょうか?

自動車メーカーは、施設を近代化し、事業運営をより持続可能にするために、スマート製造戦略を採用していま...

...

知っておくべき10の機械学習アルゴリズム

機械学習は、確率論、統計、近似理論、凸解析、アルゴリズム複雑性理論など、多くの分野が関わる多分野にわ...

...

ハッカーがトレーニングデータセットを汚染し、AIモデルが「犬を入力して猫を生成」できるようにするNightshadeツールを公開

10月25日、AIの大規模モデルトレーニングデータソースの著作権問題は、常に業界にとって頭痛の種とな...

百度の最新アルゴリズム調整対応戦略

Baiduの最新アルゴリズム調整対応戦略、4つの対策でBaiduの最新アルゴリズム調整に対応します。...

...

...

リアルタイムのテキストおよび画像処理の速度が 5 ~ 10 倍向上しました。Tsinghua LCM/LCM-LoRA は人気を博し、視聴回数は 100 万回を超えました。

テキストから作成された画像や写真から作成された画像は、新しいものではありません。しかし、これらのツー...