AIのダークサイド: AIを信頼できるものにする方法

AIのダークサイド: AIを信頼できるものにする方法

セキュリティとプライバシーに関する懸念は、AI 導入に対する最大の障壁であり、それには十分な理由があります。善意の行為者と悪意のある行為者の両方が、AI モデルとデータのパフォーマンス、公平性、セキュリティ、プライバシーを脅かす可能性があります。

[[342330]]

AI が主流に導入され、さまざまなメリットがもたらされるにつれ、企業にとって無視できない進展が起こっています。実際、最近のガートナー社の「新興テクノロジーのハイプサイクル 2020」では、リストされているテクノロジーの 3 分の 1 以上が AI に関連しています。


同時に、AI には対処されないことが多いダークサイドもあります。特に、現在市場に出回っている機械学習や AI プラットフォームでは、企業組織や個人の権利を保護するための一貫性のある包括的なツールがまだ提供されていないためです。 AI企業にとって事態をさらに悪化させるのは、ガートナーの調査によると、消費者は、何か問題が発生した場合、AIを使用または提供する組織が責任を負うべきだと考えていることだ。

AI 投資を保護するために、脅威に対処するセキュリティ対策を実施することは、あらゆる組織にとって利益になります。 AI に対する脅威や攻撃は、AI モデルのセキュリティやデータの安全性を危険にさらすだけでなく、モデルのパフォーマンスや結果も危険にさらします。

犯罪者は通常 2 つの方法で AI を攻撃します。技術者はこれらの脅威を軽減するための措置を講じることができますが、まずは AI の 3 つの主要なリスクについて見ていきましょう。

人工知能の安全性、責任、社会的リスク

AI を使用する組織は、3 種類のリスクに直面します。 AI が普及し、企業の重要な業務に組み込まれるようになるにつれて、セキュリティ リスクが増大します。たとえば、自動運転車の AI モデルにバグが含まれていて、それが致命的な事故につながる可能性があります。

機密性の高い顧客データを使用する AI モデルが顧客に影響を与える意思決定にますます影響を与えるようになるため、責任リスクが増大します。たとえば、AI の信用スコアに誤りがあると、消費者がローンを取得できなくなり、金銭的損失や評判の損失につながる可能性があります。

「無責任なAI」が透明性も理解しやすさもない偏った決定を下すことで、消費者にとって不利で不公平な結果を生み出すため、社会的リスクが増大しています。わずかな偏りでも、アルゴリズムの重大な誤動作につながる可能性があります。

犯罪者がAIを攻撃するよくある方法

上記のリスクは、犯罪者が AI を攻撃する一般的な 2 つの方法、つまり悪意のある入力、嫌がらせ、調査攻撃によって引き起こされる可能性があります。

AI モデルへの悪意のある入力は、敵対的 AI、操作されたデジタル入力、または悪意のある物理的入力の形をとる可能性があります。敵対的 AI は、AI が生成した音声を使用して人間をソーシャル エンジニアリングする形をとる可能性があり、これはあらゆる種類の犯罪に使用でき、「新しい」フィッシング形式であると考えられます。たとえば、昨年 3 月には、犯罪者が AI 合成音声を使用して CEO の声を模倣し、243,000 ドルの資金を不正に自分の口座に送金するよう要求しました。

調査攻撃では、犯罪者が組織の AI モデルにプローブを送信してその仕組みを理解しようとしますが、ブラック ボックスまたはホワイト ボックスの形式で行われる場合もあります。具体的には、ブラックボックス クエリ攻撃は、金銭的利益や検出の回避などの望ましい出力を得るために、通常とは異なる乱れた入力を識別します。一部の学者は、主要な翻訳モデルの出力を操作することでそれを欺き、誤った翻訳を導き出すことに成功しました。

ホワイトボックス クエリ攻撃は、トレーニング データセットを再生成して類似のモデルを再現するため、貴重なデータが盗まれる可能性があります。一例として、音声認識ベンダーが、新しい外国ベンダーの被害に遭い、その技術を偽造して販売し、その結果、外国ベンダーが盗まれた IP に基づいて市場シェアを獲得できたケースが挙げられます。

最新のセキュリティの柱がAIの信頼性を高める

IT リーダーは、既存のセキュリティの柱 (人間中心のセキュリティ制御とエンタープライズ セキュリティ制御) と新しいセキュリティの柱 (AI モデルの整合性と AI データの整合性) を評価およびサポートするために、組織内の AI に対する脅威を認識することが重要です。

AI モデルの整合性により、組織は従業員に対する敵対的トレーニングを検討し、エンタープライズ セキュリティ制御を通じて攻撃対象領域を縮小することが推奨されます。 AI モデルとそのモデルのトレーニングに使用されるデータの由来と追跡にブロックチェーンを使用することも、組織が AI の信頼性を高める方法としてこの柱に該当します。

AI データの整合性は、AI への脅威に対処するために、データ異常分析 (分布パターンや外れ値など) とデータ保護 (差分プライバシーや合成データなど) に重点を置いています。

AI アプリケーションを保護するために、セキュリティ技術とインフラストラクチャに重点を置く技術専門家は次の作業を行う必要があります。

  • 脅威評価を実施し、厳格なアクセス制御を適用し、トレーニング データ、モデル、データ処理コンポーネントを監視することで、開発中および運用中の AI アプリケーションの攻撃対象領域を最小限に抑えることができます。
  • モデル開発中の脅威、AI モデルの欠陥の検出、サードパーティの事前トレーニング済みモデルへの依存、公開されたデータ パイプラインという 4 つの AI 固有の側面に対処することにより、ソフトウェア開発ライフサイクル (SDLC) を保護するための標準制御を強化します。
  • 最新かつ高品質で、敵対的サンプルを含むデータ リポジトリを保護および維持することで、すべてのデータ パイプラインでデータ ポイズニングを防御します。データ汚染、敵対的入力、モデル漏洩攻撃に対する堅牢性を向上させるオープンソースおよび商用ソリューションが増えています。

詐欺師が直接発見され、その後その詐欺師のシステムに対してフォレンジック調査が行われない限り、AI モデルが侵害されたことを証明することは困難です。同時に、企業は AI の使用を簡単にやめることはないので、企業における AI の導入を成功させるには、AI のセキュリティを確保することが非常に重要です。システムにセキュリティを後から組み込むのは、最初から組み込むよりもはるかにコストがかかるため、今すぐ AI を保護してください。

<<:  公正な AI システムを構築するにはどうすればよいでしょうか?

>>:  ディープラーニングの背後にある数学的アイデアを分析する

ブログ    
ブログ    

推薦する

DeepMindは「Transformerは事前学習データを超えて一般化できない」と指摘しているが、疑問視する人もいる。

マスク氏の xAI が Grok を発表した翌日、xAI はプロンプトエンジニアリングと説明可能性の...

Ali Wensheng ビデオが Gen-2 と Pika に挑戦、1280×720 の解像度で圧迫感なし、3500 万のテキスト ビデオ表示効果

ヴィンセントのビデオはどの程度詳細にできますか?最近、アリババの調査により、1280×720 の解像...

中間レビュー: 2021 年に最も注目される AI スタートアップ 10 社

[[407377]] 2021年はまだ半分しか経っていませんが、人工知能に注力する人気のスタートアッ...

...

Madlib を使用して「機械学習」で KNN を学習する

序文機械学習(ML)は、教師あり学習、教師なし学習、半教師あり学習などに分けられます。 1.1 教師...

メタバースの時代が来ます。準備はできていますか?

人類の進化の歴史を振り返ると、時代のあらゆる変化は不可逆的であることに気づくのは難しくありません。な...

AIと機械学習がSaaS業界にどのような変化をもたらすか

GlobalDots の CTO である Yair Green 氏が、人工知能と機械学習がサービスと...

ディープラーニング可視化ツールの包括的なレビュー(リソース付き)

ディープネットワークは機械学習の研究・応用分野に大きな影響を与えてきましたが、同時にディープネットワ...

ヘルスケア分野で人工知能がどのように台頭しているか

人工知能は世界のほぼすべての分野に変革をもたらしたようです。ヘルスケア業界は長年にわたって大きく変化...

2021年中間レビュー: AIの浮き沈み、希望の頂点から失望の谷まで

[[408503]] 1. 2021 年上半期に AI でどのような新たなブレークスルーが達成されま...

カスタマーサービスで AI ボットを使用する 5 つのメリット

Zendesk は、企業と顧客の距離を縮めるために設計された顧客サービス プラットフォームを開発しま...

蘭州テクノロジーの周明氏:大きなモデルは必ずしも大きいほど良いというわけではありません。100億規模のモデルでも十分かもしれません。

この記事は、WOT2023カンファレンスでの蘭州科技の創設者兼CEOである周明氏の基調講演からまとめ...

DeepMindのAIが核融合炉の制御を学習、Nature誌に発表

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

人工知能は宇宙人を発見するのに役立つかもしれない

米国の宇宙ウェブサイトによると、多くの科学者が人工知能(AI)を使ってエイリアン(学名は「地球外知的...

OpenAIは10月に開発された画像生成器DALL-E 3の新バージョンをリリースした。

OpenAIは9月21日水曜日、書かれたプロンプトに基づいて画像を生成できる新しい画像生成器DAL...