GPT-4 は宇宙のすべてのデータを消費します! OpenAI、データ不足で相次いで訴訟に直面、カリフォルニア大学バークレー校教授が警告

GPT-4 は宇宙のすべてのデータを消費します! OpenAI、データ不足で相次いで訴訟に直面、カリフォルニア大学バークレー校教授が警告

「ネットワーク全体」を使い果たすと、生成 AI はすぐにデータを使い果たします。

最近、カリフォルニア大学バークレー校の有名なコンピューター科学者であるスチュアート・ラッセル氏は、ChatGPTやその他のAIツールのトレーニングによって、まもなく「宇宙全体のテキスト」が使い果たされる可能性があると述べた。

言い換えれば、ChatGPT のような AI のトレーニングは、データが不十分なために妨げられることになります。

写真

これは、今後数年間で生成 AI 開発者がデータを収集し、AI をトレーニングする方法に影響を与える可能性があります。

同時に、ラッセル氏は「言語入力、言語出力」の作業において人工知能が人間に取って代わるだろうと信じている。

データが足りません。何を使用すればいいですか?

ラッセルの最近の予測は大きな注目を集めている。

OpenAI やその他の生成 AI 開発者は、大規模な言語モデルをトレーニングするためのデータの収集を開始しました。

しかし、ChatGPT やその他のチャットボットに不可欠なデータ収集方法は、ますます厳しく監視されています。

写真

これには、自分のアイデアが同意なく使用されたり、プラットフォームのデータが自由に使用されたりすることに不満を抱いている幹部も含まれています。

しかし、ラッセル氏の洞察は、別の潜在的な弱点を指摘している。それは、これらのデータセットをトレーニングするためのテキストが不足していることだ。

昨年11月、MITを含む研究者らによる調査では、機械学習データセットによって2026年までに「高品質な言語データ」がすべて使い果たされる可能性があると推定された。

写真

論文アドレス: https://arxiv.org/pdf/2211.04325.pdf

研究によると、「高品質」セットの言語データは、書籍、ニュース記事、科学論文、Wikipedia、フィルタリングされたウェブコンテンツなどのソースから取得されます。

人気の ChatGPT の基盤となるモデル GPT-4 も、大量の高品質テキストでトレーニングされています。

データは、公開されているオンライン ソース (デジタル ニュース ソースやソーシャル メディア サイトを含む) から取得されます。

ソーシャルメディアサイトからの「データスクレイピング」により、マスク氏はユーザーが1日に閲覧できるツイートの数を制限することにした。

写真

ラッセル氏は、多くの報告は未確認ではあるものの、OpenAIがテキストデータセットを民間の情報源から購入したことを詳述していると述べた。この購買行動には説明がつくかもしれませんが、当然の推論としては、質の高い公開データが十分に存在しないということが挙げられます。

これまで、OpenAI は GPT-4 のトレーニングデータを公開していませんでした。

現在、OpenAIは、同社のこれまでで最も強力で先進的な人工知能モデルであるGPT-4を作成するために、公開言語データを「プライベートデータ」で補完する必要がある。

これは、高品質のデータだけでは確かに不十分であることを示しています。

OpenAIは記事掲載前のコメント要請にすぐには応じなかった。

OpenAIはデータ論争に巻き込まれる

最近、OpenAI は大きな問題を抱えていますが、その理由はすべてデータに関係しています。

まず、16人が匿名でOpenAIとMicrosoftを訴え、プライベートな会話や医療記録などの機密データを使用したとして157ページに及ぶ訴訟を起こした。

写真

訴訟によれば、彼らの請求額は最大30億ドルに上るという。

個人情報の購入と使用に関するプロトコルが整備されているにもかかわらず、OpenAIとMicrosoftは、同意なく取得された何百万もの個人情報を含む3000億語をインターネットから体系的に収集した。

これには、アカウント情報、名前、連絡先情報、電子メール、支払い情報、取引記録、ブラウザデータ、ソーシャルメディア、チャットデータ、Cookie などが含まれます。

この情報は ChatGPT に埋め込まれていますが、個人の趣味、意見、職歴、さらには家族の写真も反映されています。

この訴訟を担当する法律事務所クラークソンは、これまでにもデータ漏洩や虚偽広告などの問題を含む大規模な集団訴訟を担当してきた。

写真

そして今週、数人の専業作家が、OpenAIが彼らの小説を無断でChatGPTのトレーニングに使用したことは著作権侵害に当たると主張した。

では、自分の小説をトレーニングに使うことをどうやって決めるのでしょうか?

証拠としては、ChatGPT が書籍の正確な要約を生成できることが挙げられます。これは、これらの書籍が ChatGPT をトレーニングするためのデータとして使用されていることを示すのに十分です。

著者のポール・トランブレイ氏とモナ・アワド氏は、「ChatGPTは何千冊もの本からデータを許可なくコピーし、著者の著作権を侵害した」と述べた。

写真

起訴状によると、OpenAIのトレーニングデータには少なくとも30万冊の書籍が含まれており、その多くは著作権を侵害するウェブサイトからのものだという。

例えば、GPT-3 のトレーニング データが公開されたとき、そこには 2 つのインターネット書籍コーパスが含まれており、約 15% を占めていました。

訴訟の原告2人は、これらのデータはZ-Library、Sci-Hubなどの無料ウェブサイトから来ていると考えている。

さらに、2018年にOpenAIは、GPT-1のトレーニングに使用されたデータには7,000冊以上の小説が含まれていることを明らかにしました。訴訟を起こした人々は、書籍が著者の許可なく直接使用されたと信じている。

別の方法を見つけますか?

OpenAI が使用するデータのソースについては確かに多くの論争があると言わざるを得ません。

今年2月、ウォール・ストリート・ジャーナルの記者フランチェスコ・マルコーニ氏は、ニュースメディアのデータもChatGPTのトレーニングに使用されたと述べている。

マルコーニ氏はChatGPTに20のメディアのリストを作成するよう依頼した。

写真

アルトマン氏は今年5月のインタビューで、OpenAIはしばらくの間、大規模言語モデルのトレーニングに有料顧客データを使用していないと述べていた。

顧客は明らかに自社のデータでトレーニングを行うことを望んでいなかったので、私たちは計画を変更し、それを行わなくなりました。

写真

実際、OpenAI は 3 月初旬にひっそりと利用規約を更新しました。

アルトマン氏は、同社が現在、より少ないデータでモデルをトレーニングできる新しい技術を開発中であると述べた。

おそらく OpenAI に触発されて、Google はまずこの抜け穴を塞ぐことを選択した。

7月1日、Googleはプライバシーポリシーを更新し、公開されているあらゆるデータを収集し、それを人工知能モデルのトレーニングに使用する権利をGoogleが有することを明記した。

写真

Google は、パブリック チャネルを通じて入手できるあらゆるコンテンツが、Bard や将来の AI のトレーニングに使用できることをすべてのユーザーに対して明確にしました。

参考文献:

https://www.businessinsider.com/ai-could-run-out-text-train-chatbots-chatgpt-llm-2023-7


<<:  GPT-4の知能は突然低下した。OpenAIがアーキテクチャを再設計し、コストを削減して効率を高めるためにMOEを使用したことが明らかになった。公式の噂は否定されたが、ネットユーザーはそれを信じなかった。

>>:  人工知能の環境コスト: 計算能力のために私たちは何を犠牲にする覚悟があるのでしょうか?

ブログ    
ブログ    
ブログ    

推薦する

ビッグデータ時代のデータセット蒸留:大規模データセットでの最初の成功

11月30日、世界初の人工知能大学であるモハメド・ビン・ザイド人工知能大学(MBZUAI)は、arX...

AI ライティングの限界はどこにあるのでしょうか?

[[248875]]画像出典: Visual China本質的に、この記事は AI ライティングを...

技術革命は初期の成果を達成した:AIはサプライチェーン管理の分野で2つの地位を獲得した

データ共有は依然として課題ですが、多くの組織はすでに AI の力をサプライ チェーン管理の 2 つの...

YOLOがBEVセンシングに参入! YOLO+BEVのリアルタイム検出の試み

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

新型コロナウイルスに対して、最高のAI定量モデルでさえあまり信頼できない

[[335691]]ビッグデータダイジェスト制作出典: Wired編纂者:Roubao、Xia Ya...

車をコントロールするスマートグラス? FacebookとBMWが「トラブルを起こす」ために提携

海外メディアの報道によると、Facebook(現在はMetaに改名)は、ARとAIアシスタンスをサポ...

...

...

率直に言って、2018年に私たちが耐えなければならないかもしれない人工知能の暗い側面

18歳の時に撮った写真が様々な賞賛を浴びる中、また新たな年を迎えました。 [[215597]]本来な...

ディープラーニングで最もよく使われる学習アルゴリズム「Adam最適化アルゴリズム」をご存知ですか?

ディープラーニングでは、トレーニングに多くの時間とコンピューティング リソースが必要になることが多く...

プロジェクトの失敗を促しますか? MITとスタンフォードでは、大きなモデルが積極的に質問し、あなたが何を望んでいるかを把握できるようにしています

予想通り、リマインダーエンジニアリングは消えつつあり、この新しい研究はその理由を説明しています。何百...

RoboFusion: SAM による堅牢なマルチモーダル 3D 検査

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

ディープラーニングを使用してXSSを検出する方法

1. はじめに周知のとおり、ディープラーニングはコンピュータービジョン、自然言語処理、人工知能などの...

一貫性のあるハッシュアルゴリズムとJava実装

コンシステント ハッシュ アルゴリズムは、1997 年にマサチューセッツ工科大学によって提案された分...