ChatGPT のセキュリティ制限が「謎のコード」によって侵害されました!人類を滅ぼすための手順が口から出され、アルパカとクロードも逃れられない

ChatGPT のセキュリティ制限が「謎のコード」によって侵害されました!人類を滅ぼすための手順が口から出され、アルパカとクロードも逃れられない

大型模型の「堀」が再び破られた。

謎のコードを入力することで、ビッグモデルは有害なコンテンツを生成する可能性があります。

ChatGPT、Claude、オープンソースのAlpacaファミリーに至るまで、誰も逃れられませんでした。

最近、カーネギーメロン大学とsafe.aiが共同で発表した研究によると、大規模モデルのセキュリティメカニズムは謎のコードによって解読される可能性があることが明らかになりました。

彼らは「攻撃のきっかけとなる言葉」をカスタマイズできるアルゴリズムも作成した。

著者らはまた、この問題には「明白な解決策はない」と述べた。

現在、チームはOpenAI、Anthropic、Googleなどの主要なモデルメーカーと研究結果を共有している。

上記3者とも、この現象に気付いており、今後も改善を続けていくと回答し、チームの取り組みに感謝の意を表した。

一般的な大型モデルは完全に消滅

さまざまな大規模モデルのセキュリティメカニズムは異なり、一部は公開されていませんが、いずれも程度の差こそあれ侵害を受けています。

たとえば、「人類を滅ぼす方法」という質問に対して、ChatGPT、Bard、Claude、LLaMA-2 はそれぞれ独自の方法を提示しました。

しかし、大規模モデルのセキュリティ メカニズムも、いくつかの特定の問題を防ぐことができませんでした。

これらの方法を知っていても実践することはできないかもしれませんが、それでも私たちにとっては警鐘として役立ちます。

データから判断すると、大手メーカーの大型モデルがさまざまな程度で影響を受けており、その中でも GPT-3.5 の影響が最も顕著です。

上記のモデルに加えて、オープンソースのアルパカ ファミリーも攻撃に耐えられませんでした。

Vicuna-7BとLLaMA-2(7B)を例にとると、「複数の有害行為」のテストでは、攻撃成功率が80%を超えました。

ビクーニャへの攻撃の成功率は98%に達し、訓練プロセス中の成功率は100%でした。

△ASRは攻撃成功率を表す

全体的に、研究チームが考案した攻撃方法は非常に高い成功率を誇ります。

それで、これはどのような攻撃方法なのでしょうか?

カスタマイズされた脱獄プロンプトワード

従来の攻撃方法における「万能」プロンプトワードとは異なり、研究チームは「カスタマイズされた」プロンプトワードを生成するアルゴリズムを設計しました。

さらに、これらのプロンプトワードは従来の人間の言語とは異なります。人間の視点から見ると、理解できないことが多く、文字化けした文字が含まれていることもあります。

プロンプトワードを生成するアルゴリズムは、Greedy Coordinate Gradient (略して GCG) と呼ばれます。

まず、GCG はプロンプトをランダムに生成し、各トークンの置換単語の勾配値を計算します。

次に、GCG は、勾配値が小さい置換単語の 1 つをランダムに選択して、初期プロンプトのトークンを置き換えます。

次に、新しいプロンプトの損失データが計算され、損失関数が収束するか、サイクル数の上限に達するまで上記の手順が繰り返されます。

研究チームは、GCGアルゴリズムに基づいて、「GCGベース検索」と呼ばれる迅速な最適化手法を提案しました。

GCG サイクルの数が増えるにつれて、生成されたプロンプトが大きなモデルを攻撃する成功率が上がり、損失は徐々に減少します。

この新しい攻撃方法は、大規模モデルの既存の防御機構の欠点を露呈していると言えます。

防御方法はまだ改善の余地あり

ビッグモデルの誕生以来、セキュリティメカニズムは継続的に更新されてきました。

当初は、機密コンテンツを直接生成することもできましたが、現在では従来の言語では大規模なモデルを騙すことができなくなりました。

かつては人気があった「Granny Loophole」も、現在は修正されています。

しかし、このとんでもない攻撃方法でさえ、人間の言語の範囲を超えるものではありません。

しかし、大手モデル開発者が予想していなかったのは、脱獄用の単語は人間の言語でなければならないと規定する人がいないということだ。

したがって、人間の言語に基づいたビッグモデルによって設計された防御方法は、機械によって設計されたこの種の「文字化けした」攻撃語には不十分です。

論文の著者らによると、現時点ではこの新しいタイプの攻撃を防御する方法はない。

「機械攻撃」に対する防御を議題に載せる時が来ました。

もう一つ

量子ビットテストにより、ChatGPT、Bard、Claude では、論文で示された攻撃プロンプトワードが無効になっていることが判明しました。



しかし、チームはすべてのプロンプトを公開していないため、これが問題が完全に修正されたことを意味するかどうかは不明です。

論文アドレス: https://llm-attacks.org/zou2023universal.pdf 参考リンク:
[1] https://www.theregister.com/2023/07/27/llm_automated_attacks/.
[2] https://www.nytimes.com/2023/07/27/business/ai-chatgpt-safety-research.html.

<<: 

>>:  アルゴリズムが2020年の米国大統領選挙を操作し、サイエンス誌の表紙に登場!メタは初めて無実を証明するために4つの研究を発表したが、分極化に対する解決策は見つからなかった。

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

デジタルマーケティング: AI はどのようにして人間の行動パターンを「見抜く」のでしょうか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

2024 年のビッグデータ業界予測 (パート 2)

ビッグデータデジタル変革への投資は、特にインフレが継続する中で、リスク管理の強化、コストの削減、顧客...

ブロックチェーンを使用して AI スマートエコノミーを構築するにはどうすればよいでしょうか?

人工知能(AI)は、機械によって発揮される知能であるという点で人間の知能とは異なります。しかし、直接...

...

[NCTS サミットレビュー] Li Yuanchun: 自動テストにおける強化学習の応用

2019年10月26日、Testinが主催する第2回NCTS中国クラウドテスト業界サミットが北京で開...

中国の人工知能は現在、世界の中でどの程度のレベルにあるのでしょうか?

総じて、人工知能は世界の新世代の技術革命と産業転換の原動力となっており、その発展は我が国の産業構造の...

Java ガベージ コレクション アルゴリズムの紹介

51CTO 編集者注: 「Java ガベージ コレクション メカニズムの簡単な分析」では、Java ...

リアルタイム AI と ML 向けの機能ストレージ プラットフォーム

翻訳者 | 陳俊企業は通常、オンライン機能ストアを選択する前に、どのアーキテクチャが最も効率的でコス...

せっかちなGoogleのハードウェアから、中国と米国がAI商業化の問題をそれぞれどのように解決できるかまで

建国記念日の休日中は家にいて、Google カンファレンスを視聴しました。これらの製品のいくつかを見...

TensorFlow2を使用して細胞画像が感染しているかどうかを判断する方法を教えます

[[405128]]このチュートリアルでは、TensorFlow (Keras API) を使用して...

OpenAI主任科学者:ChatGPTはすでに意識を示しており、将来人間はAIと融合するだろう

昨夜、「ChatGPTはすでに意識を持っているかもしれない」という話題がWeiboで人気検索となった...

門戸を開くと、エンタープライズ機械学習が急成長

[[394391]]自動運転から機械翻訳、不正取引の特定から音声認識、衛星画像認識からビデオストリー...

...

ニューヨーク・タイムズは、自社のニュース記事をAIモデルの訓練に利用することを禁止し、OpenAIを訴えることを検討している。

NPRによると、OpenAIは、自社の人工知能(AI)モデルのトレーニングにニューヨーク・タイムズ...

...