知らせ! GPT を作成するときにアップロードしたデータは、誰でも簡単にダウンロードできます... たった2語のヒントで騙されてしまう可能性があります! 一方、OpenAIの最も近い同盟者であるマイクロソフトは、一度社内でアプリを緊急に無効化しており、その理由はウェブサイトに次のように表示されている。 多くの AI ツールは、セキュリティとデータに関する懸念から、従業員が使用できなくなりました。 GPT のカスタマイズされたバージョンがリリースされて以来、さまざまな専門家が GPT のライブ リンクを共有しています。 その結果、ネットユーザーが誤ってGPTの1つにあるナレッジベースファイルを掘り出してしまい、さまざまな大手テクノロジー企業の職位や給与に関するデータが直接公開されてしまいました... 写真 簡単なプロンプトをいくつか入力するだけで、GPT はすべてを従順にアップロードします。 一部のネットユーザーはこう言った。「これは新たなセキュリティ上の脆弱性なのか?」多くの人がエンタープライズカスタマイズについて懸念し始めています。 OpenAI の最も近い同盟国である Microsoft でさえ、ChatGPT への内部アクセスを一時的にキャンセルしたことは注目に値します。 データとプロンプトワードの両方が漏洩した前述のように、ユーザーはロボットのアイデンティティや言語特性を詳細にカスタマイズし、独自の知識ベースを構築できます。 GPT Builder のガイダンスに従って自然言語で記述するだけで、独自の知識ベースを除くほとんどの設定が自動的に完了します。 カスタマイズされた GPT を自分で使用したり、リンクを他のユーザーと共有したりできます。 写真 しかし、問題はここにあります。 開発者はこれらを使用して、データの視覚化を分析し、外部使用のためにリンクを開くことができる Levels.fyi の基本的な GPT を作成しました。 写真 その結果、ネットユーザーはいくつかの質問をするだけでファイルをダウンロードできることを発見した。 一瞬、ネットユーザーは唖然とした。「これは制限されるべきですよね?」 写真 写真 しかし、これはバグではなく機能だと考える人もいます。ファイル内のデータは公開されている必要があります。 写真 熱心なネットユーザーの中には、設定中にコードインタープリター機能のチェックを外すという直接的な解決策を提示した人もいます。 写真 しかし、たとえ他人にダウンロードされなくても、あなたがアップロードしたデータは OpenAI の堀の水となるでしょう。 さらに、一部のネットユーザーは、プロンプトワードの説明文も漏洩する可能性があることを発見しました。 写真 ただし、カスタマイズ時にルールを明確に設定することで、正常にブロックできるという解決策があります。 写真 マイクロソフトは社内でChatGPTへのアクセスを制限しているデビューから3日後の昨日、GPTは有料ユーザー向けに完全にオープンになりました。 OpenAI は、数学の家庭教師、料理アシスタント、交渉の専門家など、GPT ページでユーザー向けにカスタマイズされたロボットを公式に用意しています。 しかし、これではユーザーの好奇心を満たすには程遠い。開発者たちは、1日も経たないうちにこの機能を利用して、奇妙なものをたくさん作ってしまった。 真剣かつ厳粛な彼らは、プロンプトの作成や履歴書の修正に役立ちます。 もう少し活発な体験のために、Quantum位は、ユーザーが迷惑なPUA説教に効果的に反撃するのに役立つ「パパ風味のスピーチスコアリング」があることに気付きました。 もっと形而上的なことをしたいなら、MBTI 16性格分析やタロットカード占いなどのサービスもあります。 写真 一言で言えば、みんなが楽しい時間を過ごしました。 しかし、3時間あたり50アイテムの制限がまだあるため、多くのネットユーザーは無力感を感じ、GPTで遊んでいると毎日この制限が簡単に引き起こされることを嘆いています。 写真 しかし、一部のネットユーザーはまだ控えめな態度を保っており、これはChatGPTがピークに達した以前の様子のようであり、その後徐々に平穏な時期に戻るだろうと信じている。 写真 同時に、マスク氏はGPTに対する軽蔑というGPTに対する態度を明確に表明した。 彼は、Grok を GPT の手でこすったという Altman のツイートを直接引用し、「GPT」を「GPT-Snore」と軽率に解釈しました。 写真 もう一つの大型モデル「Grok」の責任者として、いつもおしゃべりなマスク氏がこれほど皮肉屋なのは驚くことではないようだ。 最も目を見張ったのは、一昨日、OpenAI がハッキングされた日に、Microsoft が従業員による ChatGPT の使用を禁止したことです。 はい、その通りです。OpenAI の最大のパートナーであり株主でもある Microsoft は、従業員が ChatGPT にアクセスすることを禁止しています。 Microsoft は社内ウェブサイトで次のように書いています。
AIツールとは何ですか?言及されたのはChatGPTとデザインウェブサイトCanvaです。 その後、ChatGPT は Microsoft 従業員の社内デバイスでブロックされました。 それだけでなく、マイクロソフトは当時、OpenAI に投資はしているものの、マイクロソフトの社員にとって ChatGPT はサードパーティのツールであるとも述べていました。 従業員は、Midjourney などの外部 AI ツールを使用する場合と同様に、これを使用する際にも注意を払う必要があります。 しかし、禁止は長くは続かなかった。 すぐに従業員の ChatGPT へのアクセスが回復し、公式声明ではこれは単なる見事な誤解であったと述べられましたが、それでも全員に Bing (doge) の使用が推奨されています。 LLM の端末制御システムをテストしていたところ、誤ってこのオプションをすべてのユーザーに対して有効にしてしまいました。エラーが発見された後すぐにサービスを復旧しました。 > >以前も申し上げたとおり、当社では従業員とお客様に、より高いレベルのプライバシーとセキュリティ保護を備えた Bing Chat Enterprise や ChatGPT Enterprise などのサービスを使用することを推奨しています。 OpenAIは「形ばかりで中身がない」という噂を払拭するためかは分かりませんが、今回の件でOpenAIに心理的な変動はなかったことを証明するためにウルトラマンが自らツイートしました。OpenAIがそれを受けてMicrosoft 365を無効化したという噂はデタラメです。 写真 しかし、一連の事件に関しては、「プライバシー」と「データセキュリティ」の問題を避けることはできません。 つまり、現時点では、ChatGPT/GPT の使用時に「内部データ共有」という隠れた危険性に気付いたのは、大手企業や大企業だけではありません。前述のように、起業家、開発者、さらには一般ユーザーもこの問題に気付いています。 したがって、新たな議論が始まりました。 GPT にユーザーがアップロードしたデータや文書などが非公開であることを保証できない場合、商業化に向けて次のステップをどのように進めればよいのでしょうか? 写真 ChatGPT 時代の「App Store」を構築したいと考えている OpenAI にとって、これは良いアイデアではないようです。 しかし、すべてはまだ始まったばかりなので、OpenAI のその後の改善策を見て、しばらくは事態の収拾に努めることにしましょう。 |
<<: Fast.ai の 10,000 ワードの記事: AI の安全性と光の終焉
この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...
[[437285]]この記事はLeiphone.comから転載したものです。転載する場合は、Leip...
[[343053]]グラフは、ソーシャル メディア ネットワーク、Web ページやリンク、GPS の...
[[283120]]インターネット全体が「メイおばさん」を探しているが、彼女が誰なのかは謎のままだ...
2019 年は、データ、分析、機械学習、人工知能の市場において継続的な発展が見られた年でした。 Sa...
機械学習の世界では、最適化問題は非常に重要であり、世界をより良い方向に変える可能性があります。最適化...
[[427464]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
多くの友人から、PyTorch の学習方法を尋ねられました。長期間の練習を経て、初心者が知っておく必...
ソラは発売後すぐにリバースエンジニアリングによって「解剖」されたのでしょうか? !リーハイ大学とマイ...