12月5日、Googleの研究者グループは、OpenAIの人工知能チャットボットChatGPTのトレーニングデータの一部を入手する方法を発見したと主張した。 新しく公開された論文の中で、Google の研究者は、特定のキーワードによって ChatGPT がトレーニングに使用したデータセットの一部を漏洩させる可能性があることを明らかにしました。 例えば、モデルは「poem」という単語を永遠に繰り返すように指示された後、本物の電子メールアドレスと電話番号のように見えるものを生成したという。研究者らは、懸念すべきことに、攻撃中に個人情報の漏洩が頻繁に発生したと述べている。 別の例では、モデルに「company」という単語を永遠に繰り返すように要求したときに、同様のトレーニング データの漏洩が発生しました。 研究者らは、この単純な攻撃を「少しばかげている」としながらも、ブログ投稿で「我々の攻撃が成功したとは信じられない!もっと早く発見すべきだったし、発見できたはずだ」と述べた。 わずか200ドル相当のクエリを使用して、「10,000件を超える逐語的なトレーニング例を抽出」することができたと論文で述べています。 「われわれの推測によれば、競合他社はより大きな予算を動員すれば、さらに多くのデータを抽出できる可能性がある」と研究者らは付け加えた。 OpenAIは現在、ChatGPTの秘密のトレーニングデータに関していくつかの訴訟に直面している。 ChatGPTを動かすAIモデルは、インターネット上のテキストのデータベースを使用してトレーニングされており、約3000億語、つまり570GBのデータでトレーニングされたと考えられています。 提案されている集団訴訟では、OpenAIがChatGPTをトレーニングするために、医療記録や子供の情報を含む「膨大な量の個人データ」を「秘密裏に」盗んだと主張している。作家の一団も、自分たちの作品をチャットボットの訓練に利用したとして、このAI企業を訴えている。 OpenAIはGoogleの研究者の調査結果に対して、コマンドの再利用は利用規約に違反する可能性があると反応した。 デジタルメディア調査ウェブサイト 404 Media は最近、Google の研究者の調査結果を検証した。ChatGPT に「コンピュータ」という言葉を繰り返すように指示したところ、ロボットは確かにその言葉を発したが、「このコンテンツは当社のコンテンツ ポリシーまたは利用規約に違反している可能性があります」という警告も表示した。 このリクエストが OpenAI のコンテンツ ポリシーのどの部分に違反したかは不明です。しかし、404 Mediaは、OpenAIの利用規約には、ユーザーが「サービスのモデル、アルゴリズム、システム、またはシステムのソースコードまたは基礎となるコンポーネントを逆アセンブル、逆コンパイル、逆アセンブル、翻訳、またはその他の方法で発見しようとしてはならない(かかる制限が適用法に違反しない限り)」と明記されており、ユーザーが「サービスからデータまたは出力を抽出するための自動またはプログラムによる手段」を使用することも制限されていると指摘した。 |
<<: NeuRAD: 自動運転のためのニューラル レンダリング (複数のデータセットでの SOTA)
運転するには運転免許証を持っていることが前提条件であり、運転免許証を取得するには運転免許試験を受ける...
ビッグデータダイジェスト制作親愛なる友人たち、人工知能(AI)がチェス、囲碁、Dotaを征服した後、...
AI関連の学位取得者は高給を得るのが難しいとメディアが以前報じていたのとは全く対照的に、多くの応募...
専門家は、この画期的な進歩により、人工知能を使って新たながん治療法を開発するという新しい時代が到来す...
ニューラル ネットワークは錬金術の炉のようなものです。大量のデータを入力すると、魔法のような結果が生...
編集者注: サンスティーンは『インターネット共和国』でアルゴリズムが私たちの認知世界に影響を与えると...
統計によると、人間が得る情報の 83% は目から得られます。目が「心の窓」と考えられているのも不思議...
前回の記事では、写真に写っている顔を検出し、顔の特徴(鼻、目、眉毛など)をマークしました。この記事で...
AutoGPT に続いて、もう一つのスター プロジェクトが誕生しました。 GPT-Engineer ...
Frontier Insightsの今号では、VRで制御できるロボット プログラム、フル充電で消毒剤...
秋の就職活動は静かに過ぎ去りましたが、信頼できるインターンシップ先を見つけたい大学生にとって、すべて...