AIは中国のインターネットを汚染する「犯人」の1つとなった。 問題はこれです。 最近、誰もが AI に相談することに熱心です。あるネットユーザーが Bing に次のような質問をしました。
Bing もすべての質問に答え、信頼できると思われる回答を返しました。 肯定的な回答をした後、Bing はチケットの価格や営業時間などの詳細な情報も親切に提供してくれました。 しかし、ネットユーザーは答えをそのまま受け入れず、ヒントに従って下の「参考リンク」をクリックした。 この時点で、ネットユーザーは何かがおかしいことに気づいた。なぜこの人の答えはそんなに「奇妙」なのか? そこで彼は「百变人生」というユーザーのホームページをクリックし、このユーザーがAIであることに突然気づいたのです。 このユーザーは質問に非常に速く回答するため、ほぼ 1 ~ 2 分ごとに質問を終えることができます。 1分以内に2つの質問に答えることもできます。 注意深く観察した結果、このネットユーザーはこれらの回答の内容が検証されていないことを発見しました... そして彼は、これが Bing が間違った回答を出力する原因であると考えています。
AI汚染の原因は1つではないでは、ネットユーザーによって発見されたこの AI ユーザーに今何が起こっているのでしょうか? 現状の結果から判断すると、彼は知虎によって「沈黙の刑」を宣告されたことになる。 しかし、それにもかかわらず、他のネットユーザーは率直にこう述べた。
Zhihu の「回答を待っています」列をクリックし、質問をランダムに選択して下にスクロールすると、確かに多くの「機械語」回答が表示されます。 例えば、「生活における AI の応用シナリオは何ですか?」という質問に対する答えの中に、1 つの答えが見つかりました。 回答の言語が「機械語」であるだけでなく、回答には「AI支援による作成を含む」というラベルが直接付けられています。 そして、ChatGPT に質問を投げかけると、返ってくる答えは... まあ、ほとんど同じ古い話です。 実は、こうした「AI汚染源」はこのプラットフォームに限定されるものではありません。 単純な科学イラストであっても、AI は何度も間違いを犯します。 これを読んでネットユーザーも感動した。「わあ、川貝の写真が1枚もない」 AIによって生成されたさまざまな種類のフェイクニュースも一般的です。 例えば、少し前にインターネット上でセンセーショナルなニュースが広まりました。タイトルは「鄭州のチキンステーキ店で流血事件発生。男性が女性をレンガで殴り殺す!」でした。 》。 しかし実際には、このニュースは江西省の陳という男性がChatGPTを使用してファンとトラフィックを集めて生成したものです。 偶然にも、広東省深セン市の洪穆迪氏もAI技術を使ってフェイクニュースを発信した。「今朝、甘粛省で列車が道路建設作業員に衝突し、9人が死亡した。」 具体的には、近年話題になっているソーシャルニュースをインターネット全体で検索し、AIソフトウェアを使ってニュースの時間や場所などを修正・編集し、特定のプラットフォームで注目度やトラフィックを獲得して不法な利益を得ていた。 警察は彼らに対して刑事強制措置を講じた。 しかし、実はこの「AI汚染源」という現象は中国だけでなく、海外にも存在している。 プログラマーの Q&A コミュニティである Stack Overflow がその一例です。 ChatGPT が人気になり始めた昨年末、Stack Overflow は突然「一時的な禁止」を発表しました。 当時発表された公式の理由は次の通りです。
Stack Overflow ではこの現象についてさらに詳しく説明しています。 以前のユーザーが回答した質問は、専門知識を持つ他のユーザーによって閲覧され、正しい回答または誤った回答が与えられ、検証に相当すると考えています。 しかし、ChatGPTの登場以来、「非常に正しい」と感じられる回答が多数登場しています。ただし、専門知識の背景を持つユーザーの数は限られており、生成された回答をすべて読むことは不可能です。 さらに、ChatGPT はこれらの専門的な質問に答えますが、そのエラー率は現実的であるため、Stack Overflow はこれを無効にすることを選択しました。 一言で言えば、AI はコミュニティ環境を汚染します。 さらに、アメリカ版Redditには、ChatGPTのセクションやトピックが多数あります。 多くのユーザーがこのコラムでさまざまな質問をし、ChatGPT ボットがそれらすべてに回答します。 しかし、それは依然として同じ古い質問であり、答えの正確さは不明です。 しかし、この現象の背後には、実はもっと大きな危険が潜んでいます。 AIを誤用するとAIが台無しになるAI モデルは大量のインターネット データを取得しますが、情報の信憑性と信頼性を効果的に識別することはできません。 その結果、私たちは目もくらむほどの量の、急速に生成される低品質のコンテンツに直面することになります。 ChatGPT のような大規模なモデルがこのようなデータでトレーニングされた場合、結果がどうなるかは想像しにくいです... このような AI の乱用は、結果として自己破壊の一形態となります。 最近、英国とカナダの研究者が「再帰の呪い: 生成されたデータでのトレーニングによりモデルが忘れてしまう」というタイトルの論文を arXiv に発表しました。 同報告書は、AI生成コンテンツがインターネットを汚染している現状について議論した後、モデル生成コンテンツを使用して他のモデルをトレーニングすると、結果として得られるモデルに回復不可能な欠陥が生じる可能性があるという憂慮すべき調査結果を発表した。 AI が生成したデータのこの「汚染」により、モデルは現実の認識を歪め、将来的にはインターネット データをクロールしてモデルをトレーニングすることがより困難になるでしょう。 この論文の著者であり、ケンブリッジ大学とエディンバラ大学の安全工学教授であるロス・アンダーソン氏は率直にこう語った。
偽情報が飛び交う状況について、Google Brainの上級研究科学者であるダフネ・イッポリト氏は「今後はAIによるトレーニングを受けていない高品質なデータを見つけることがさらに難しくなるだろう」と指摘。 このような意味のない低品質の情報が画面に何度も表示されると、AI はデータのトレーニングを行わなくなり、出力結果にどのような意味があるのか? この状況を踏まえて、大胆なことを想像してみましょう。ゴミや偽りのデータの環境で育った AI は、人間に進化する前に、「知的障害のあるロボット」や精神障害を持つ心理的に歪んだ人間に組み入れられる可能性がある。 1996 年の SF コメディ映画「A lot of Husbands」と同様に、この映画は、自分自身をクローン化し、さらに自分のクローンをクローン化する普通の男性の物語です。クローンが作られるたびに、クローンの知能レベルは急激に低下し、愚かさが増します。 その時、私たちは不条理なジレンマに直面することになるかもしれない。人間は素晴らしい能力を持つ AI を作ったが、それは退屈で愚かな情報で満たされているのだ。 AI に偽のジャンクデータしか与えられなかった場合、どのようなコンテンツが作成されると考えられますか? その時が来れば、私たちは皆、過去を懐かしみ、真の人間の知恵に敬意を表することになるでしょう。 そうは言っても、すべて悪いニュースというわけではありません。たとえば、一部のコンテンツ プラットフォームは、AI が低品質のコンテンツを生成する問題に注目し始めており、これを制限するための関連規制を導入しています。 一部の AI 企業は、AI によって生成された虚偽情報やスパム情報の爆発的な増加を抑えるために、AI によって生成されたコンテンツを識別できる技術の開発も始めています。 参考リンク: [2]https://twitter.com/oran_ge/status/1669160826186633219. [3]https://www.qbitai.com/2022/12/40167.html. [4] https://arxiv.org/abs/2305.17493v2. [5] https://albertoromgar.medium.com/generative-ai-could-pollute-the-internet-to-death-fb84befac250. [6] https://futurism.com/ai-generates-fake-news. |
>>: GPT-4 は人間よりも資金調達を理解しています。 AIビジネスプランがベンチャーキャピタルを熱狂させる
[[274332]]私のいとこは 2000 年代生まれで、大学に入学したばかりの才能あふれる若者で...
10月25日、AIの大規模モデルトレーニングデータソースの著作権問題は、常に業界にとって頭痛の種とな...
[[174162]]最新の KDnuggets 調査では、データ サイエンティストが最もよく使用する...
ご存知のとおり、機械学習フレームワークの分野では、PyTorch と TensorFlow がそれぞ...
[[428056]]この記事はLeiphone.comから転載したものです。転載する場合は、Lei...
COVID-19パンデミックは、物流やスーパーマーケットなどの分野に問題と機会の両方をもたらしまし...
自然言語処理や画像分類から翻訳など、ほとんどの機械学習タスクは、モデル内のパラメータやハイパーパラメ...
[[402075]]序文Bisect は、リストをソートしたままリストに要素を挿入するアルゴリズムを...
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
2019年INFORMS年次総会が米国時間10月20日から23日までシアトルで開催されました。同総...
マスク氏の野望がついに暴露される!反 AI 戦士は独自の AI を作成し、X ユニバースに新しいメン...
[51CTO.com からのオリジナル記事] IT 部門のステータスが一向に向上しないのはなぜか、上...