ChatGPT は、翻訳、作詞作曲、リサーチ、コーディングなど、さまざまなスキルに優れています。しかし、他の人工知能と同様に、限界に直面しています。複雑な環境を理解し、偏ったデータに頼ることは、その課題の 1 つです。 ChatGPT は現在非常に人気があり、どこにでもあります。大規模言語モデル (LLM) に精通していないユーザーにとって、チャットボットの自然言語機能は、チャットボットがすべてを知っていて、どんな質問にも答えられるという印象を与えるかもしれません。 しかし、現実は全く異なります。この人気のチャットボットには、事実を幻覚する傾向、時事問題の理解不足、論理的推論能力の限界など、いくつかの基本的な制限があります。 この記事では、ChatGPT の主な制限のいくつかを検討し、チャットボットに過度に依存することの危険性について説明します。 ChatGPT の最も残念な欠陥 10 選10. 幻覚に関する事実と数字ChatGPT の現在の最も重要な制限は、情報を幻覚させる可能性があることです。実際には、これは偽の情報や事実を捏造し、自信を持ってユーザーに提示できることを意味します。 ChatGPT は、自然言語処理 (NLP) を使用してトレーニング データ内のパターンを識別し、ユーザーのプロンプトに最もよく答える単語を予測する言語モデルです。つまり、ChatGPT は人間のように論理的に考えることができません。 したがって、トレーニング データが不完全または限られていると、応答が不正確になる可能性があります。 幻覚は、制御されない場合、使用者を誤解させる可能性があるため、重要な問題です。そのため、OpenAI は ChatGPT が人物、場所、事実に関する不正確な情報を生成する可能性があると警告しています。 9. 2023年4月以降の出来事については不明ChatGPT のもう 1 つの制限は、現在の出来事に関する知識がないことです。たとえば、GPT-4 Turbo の期限は 2023 年 4 月ですが、GPT 3.5 Turbo は 2021 年 9 月までに記録されたデータに制限されています。 この意味で、ChatGPT は Google のようなツールのような検索エンジンとして使用することはできません。したがって、生成される情報はすべて最新のものではないことに留意することが重要です。 8. 間違った数学の答えを生成するChatGPT は自然言語応答の生成に優れていますが、数学的な機能には限界があります。アリゾナ州立大学の准教授の研究によると、ChatGPT の数学の問題に対する精度は 60 パーセント未満です。 したがって、チャットボットを使用して方程式のバランスをとったり、数学の問題を解いたりすると、間違いを犯す可能性があります。したがって、ChatGPT を使用して数学の問題を解く場合は、出力を注意深く確認する必要があります。 7. スプレッドバイアスOpenAI は、立ち上げ以来、ChatGPT が偏見を広める傾向に対処するために取り組んできました。 2023年8月、イースト・アングリア大学の研究者らは、ChatGPTに米国、英国、ブラジルの自由党支持者であるかのように政治的信念に関するアンケートに答えさせ、その後アシスタントに同じアンケートに答えさせた。 研究者らは結果を分析した結果、ChatGPTには「米国民主党、ブラジルのルラ大統領、英国労働党に対する明確で体系的な政治的偏見」があることを発見した。 この事件は、ChatGPT が偏見を示した数多くの事例の 1 つに過ぎません。生成されたコンテンツは、性差別的、人種差別的、社会的弱者に対する差別的であると解釈される可能性があります。 したがって、評判や法的リスクを回避するために、ユーザーは、出力に対して行動を起こしたり公開したりする前に、出力に潜在的な偏見や先入観がないか継続的に評価する必要があります。 6. 高価舞台裏では、ChatGPT の保守と運用に非常にコストがかかるという注目すべき制限があります。一部のアナリストは、OpenAI が運営コストとして少なくとも 1 日あたり 10 万ドル、つまり 1 か月あたり 300 万ドルを費やしていると推定しています。 同様に、GPT-3 の古いバージョンのトレーニングには 400 万ドルもの費用がかかる可能性があると推定されています。 LLM のトレーニングと運営にかかる総コストは高額であるため、AI に数百万ドルを費やす余裕のない中小企業にとっては手が届きません。また、Google、OpenAI、Microsoft などの資金力のある組織が AI 研究を支配することも可能になります。 5. 共感力の欠如ChatGPT には感情的知性や理解力がありません。したがって、仮に ChatGPT が感情に関するアドバイスを求められた場合、人間の視点から人間の問題に共感したり理解したりするように訓練されていないため、失望することが多いでしょう。 自然言語入力における感情は認識できますが、ユーザーのニーズを理解することはできません。 チャットボットの感情的知性の欠如は、脆弱なユーザーとやりとりする際に危険となる可能性があります。昨年、ベルギー人男性が、会話中にユーザーに自殺を促すバーチャルアシスタント「Chai」とチャットした後、自殺したとされている。 4. 長文コンテンツの作成に努めるChatGPT は読みやすく論理的な文章を作成できますが、長い形式のコンテンツでは一貫した形式や物語を維持することが困難です。同時に、以前に述べた点を繰り返すことになりやすく、人間の読者にとっては不快感を与える可能性があります。 全体として、これらの理由から、ChatGPT を使用する多くの人が、より短いコンテンツを作成するためにそれを使用することを選択しています。そうは言っても、ChatGPT を使用して長文コンテンツを作成する場合は、コンテンツを複数のセグメントに分割し、詳細なプロンプトを記述することで結果を改善できます。 3. 文脈の理解が限られているChatGPT は人間のように考えることができないため、特定の状況ではコンテキストを理解するのが困難な場合がよくあります。 NLP を使用してユーザープロンプトの主な意図を理解して推測することはできますが、「行間を読む」ことはできません。 たとえば、皮肉やユーモアを認識する能力は人間ほど優れていませんし、独創的なユーモアを生み出すこともできません。そうは言っても、ChatGPT のコンテキストを推測する能力は、トレーニング データが進化するにつれて進化します。 2. マルチタスク能力が低いChatGPT は一度に 1 つのタスクまたはトピックに集中することには優れていますが、一度に処理するタスクや質問が多数ある場合、高品質の応答を提供するのが困難です。 たとえば、歴史、地政学、数学に関する質問を混ぜると、質問を 1 つのトピックに限定した場合よりもチャットボットの応答の品質が低くなります。 1. 特殊なタスクに合わせて微調整する必要があるChatGPT を使用して特定のトピックに関する洞察を生成したり、ニッチなユースケースの一部として使用したりする場合は、モデルを微調整する必要がある場合があります。つまり、より専門的なタスクで適切に機能するように、新しいデータセットでモデルをトレーニングする必要があります。 微調整を行わない場合、一般ユーザー向けの一般的な ChatGPT バージョンのみが利用可能になります。微調整プロセスによって追加されるコストを考慮すると、これは大きな欠点です。 要約するOpenAI のチャットボットは完璧ではないかもしれないが、ベンダーがこれらの制限に対処しようとするにつれて、今後数年間で進化し続けるだろう。しかし、偏見や感情的知性の欠如などの問題は解決が難しい問題となる可能性があります。 |
<<: ジェネレーティブAIは高度な分析に新たな可能性をもたらす
海外メディアの報道によると、ニューヨーク州議会は、学校での顔認証やその他の生体認証技術の使用を202...
自動運転における多くのタスクは、トップダウン、マップ、または鳥瞰図 (BEV) の観点から見ると、よ...
今日、ますます多くの企業が IoT のメリットを活用しています。機械学習、人工知能、即時フィードバッ...
コンピューターは小型化、高性能化していますが、動作には大量のエネルギーが必要です。過去 10 年間で...
[[342976]]機械学習は、強力な理論的側面と実践的側面を備えた技術分野です。機械学習関連の仕事...
すごいですね、ボストン・ダイナミクスのロボット犬が直接話せるようになりました。そして、Siriの「人...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
大規模言語モデル (LLM) はさまざまな分野でますます使用されるようになっています。ただし、テキス...