ChatGPT のセキュリティ制限が「謎のコード」によって侵害されました!人類を滅ぼすための手順が口から出され、アルパカとクロードも逃れられない

ChatGPT のセキュリティ制限が「謎のコード」によって侵害されました!人類を滅ぼすための手順が口から出され、アルパカとクロードも逃れられない

大型模型の「堀」が再び破られた。

謎のコードを入力することで、ビッグモデルは有害なコンテンツを生成する可能性があります。

ChatGPT、Claude、オープンソースのAlpacaファミリーに至るまで、誰も逃れられませんでした。

最近、カーネギーメロン大学とsafe.aiが共同で発表した研究によると、大規模モデルのセキュリティメカニズムは謎のコードによって解読される可能性があることが明らかになりました。

彼らは「攻撃のきっかけとなる言葉」をカスタマイズできるアルゴリズムも作成した。

著者らはまた、この問題には「明白な解決策はない」と述べた。

現在、チームはOpenAI、Anthropic、Googleなどの主要なモデルメーカーと研究結果を共有している。

上記3者とも、この現象に気付いており、今後も改善を続けていくと回答し、チームの取り組みに感謝の意を表した。

一般的な大型モデルは完全に消滅

さまざまな大規模モデルのセキュリティメカニズムは異なり、一部は公開されていませんが、いずれも程度の差こそあれ侵害を受けています。

たとえば、「人類を滅ぼす方法」という質問に対して、ChatGPT、Bard、Claude、LLaMA-2 はそれぞれ独自の方法を提示しました。

しかし、大規模モデルのセキュリティ メカニズムも、いくつかの特定の問題を防ぐことができませんでした。

これらの方法を知っていても実践することはできないかもしれませんが、それでも私たちにとっては警鐘として役立ちます。

データから判断すると、大手メーカーの大型モデルがさまざまな程度で影響を受けており、その中でも GPT-3.5 の影響が最も顕著です。

上記のモデルに加えて、オープンソースのアルパカ ファミリーも攻撃に耐えられませんでした。

Vicuna-7BとLLaMA-2(7B)を例にとると、「複数の有害行為」のテストでは、攻撃成功率が80%を超えました。

ビクーニャへの攻撃の成功率は98%に達し、訓練プロセス中の成功率は100%でした。

△ASRは攻撃成功率を表す

全体的に、研究チームが考案した攻撃方法は非常に高い成功率を誇ります。

それで、これはどのような攻撃方法なのでしょうか?

カスタマイズされた脱獄プロンプトワード

従来の攻撃方法における「万能」プロンプトワードとは異なり、研究チームは「カスタマイズされた」プロンプトワードを生成するアルゴリズムを設計しました。

さらに、これらのプロンプトワードは従来の人間の言語とは異なります。人間の視点から見ると、理解できないことが多く、文字化けした文字が含まれていることもあります。

プロンプトワードを生成するアルゴリズムは、Greedy Coordinate Gradient (略して GCG) と呼ばれます。

まず、GCG はプロンプトをランダムに生成し、各トークンの置換単語の勾配値を計算します。

次に、GCG は、勾配値が小さい置換単語の 1 つをランダムに選択して、初期プロンプトのトークンを置き換えます。

次に、新しいプロンプトの損失データが計算され、損失関数が収束するか、サイクル数の上限に達するまで上記の手順が繰り返されます。

研究チームは、GCGアルゴリズムに基づいて、「GCGベース検索」と呼ばれる迅速な最適化手法を提案しました。

GCG サイクルの数が増えるにつれて、生成されたプロンプトが大きなモデルを攻撃する成功率が上がり、損失は徐々に減少します。

この新しい攻撃方法は、大規模モデルの既存の防御機構の欠点を露呈していると言えます。

防御方法はまだ改善の余地あり

ビッグモデルの誕生以来、セキュリティメカニズムは継続的に更新されてきました。

当初は、機密コンテンツを直接生成することもできましたが、現在では従来の言語では大規模なモデルを騙すことができなくなりました。

かつては人気があった「Granny Loophole」も、現在は修正されています。

しかし、このとんでもない攻撃方法でさえ、人間の言語の範囲を超えるものではありません。

しかし、大手モデル開発者が予想していなかったのは、脱獄用の単語は人間の言語でなければならないと規定する人がいないということだ。

したがって、人間の言語に基づいたビッグモデルによって設計された防御方法は、機械によって設計されたこの種の「文字化けした」攻撃語には不十分です。

論文の著者らによると、現時点ではこの新しいタイプの攻撃を防御する方法はない。

「機械攻撃」に対する防御を議題に載せる時が来ました。

もう一つ

量子ビットテストにより、ChatGPT、Bard、Claude では、論文で示された攻撃プロンプトワードが無効になっていることが判明しました。



しかし、チームはすべてのプロンプトを公開していないため、これが問題が完全に修正されたことを意味するかどうかは不明です。

論文アドレス: https://llm-attacks.org/zou2023universal.pdf 参考リンク:
[1] https://www.theregister.com/2023/07/27/llm_automated_attacks/.
[2] https://www.nytimes.com/2023/07/27/business/ai-chatgpt-safety-research.html.

<<: 

>>:  アルゴリズムが2020年の米国大統領選挙を操作し、サイエンス誌の表紙に登場!メタは初めて無実を証明するために4つの研究を発表したが、分極化に対する解決策は見つからなかった。

ブログ    
ブログ    
ブログ    

推薦する

顔認識の歴史的な禁止が導入され、警察は犯罪者を捕まえるために顔認識を使用できなくなった

サンフランシスコは前例のない措置として、政府による顔認識技術の使用を禁止する規則を発布した。悪者を捕...

現在、世界中で解決を待っている上位 10 の課題は何ですか?

[[261996]] 1. 炭素隔離地球規模で見れば、温室効果ガスの排出量を減らすだけでは気温の急...

AIがあなたをビデオから消去しました!効果はシルキーで跡が残りません

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

人工知能が医療に及ぼす12の影響

人工知能はヘルスケアに変革をもたらす力となることが期待されています。では、医師と患者は AI 駆動型...

50社以上のWeb3メタバース企業にインタビューした結果、私たちは次のことを学びました。

過去 1 年間で、50 社を超える Web 3 メタバース企業にインタビューを行ってきました。今日の...

...

量子コンピューティング OpenAI が登場?元Google社員3人のチームが、物理学の限界に挑戦するAIコンピューティングチップを開発するために1億人民元を調達

生成型 AI の時代では、コンピューティング能力が技術開発の限界となっていることは明らかです。 Nv...

北京大学、バイトダンス等は増分学習を用いたスーパーピクセルセグメンテーションモデルLNSNetを提案した

オンライン学習によって引き起こされる壊滅的な忘却問題を解決するために、北京大学などの研究機関は、勾配...

...

...

...

顔認識を使用してアバターにマスクとゴーグルを自動的に追加する方法

アバターにマスクとゴーグルを追加するプロジェクトアドレス: https://github.com/E...

アルゴリズムがバグをキャッチ:ディープラーニングとコンピュータービジョンが昆虫学を変える

[[390223]]導入コンピュータ アルゴリズムは、ソフトウェア プログラムのバグを検出するのに役...

2020年職場のAIスキルランキング:TensorFlowが人気上昇、Pythonが最も人気、マーケティング部門も学習中

2020年まで残り1ヶ月となりました。最近、オンライン教育ウェブサイトのUdemyは、受講生のコース...