AIのダークサイド: AIを信頼できるものにする方法

AIのダークサイド: AIを信頼できるものにする方法

セキュリティとプライバシーに関する懸念は、AI 導入に対する最大の障壁であり、それには十分な理由があります。善意の行為者と悪意のある行為者の両方が、AI モデルとデータのパフォーマンス、公平性、セキュリティ、プライバシーを脅かす可能性があります。

[[342330]]

AI が主流に導入され、さまざまなメリットがもたらされるにつれ、企業にとって無視できない進展が起こっています。実際、最近のガートナー社の「新興テクノロジーのハイプサイクル 2020」では、リストされているテクノロジーの 3 分の 1 以上が AI に関連しています。


同時に、AI には対処されないことが多いダークサイドもあります。特に、現在市場に出回っている機械学習や AI プラットフォームでは、企業組織や個人の権利を保護するための一貫性のある包括的なツールがまだ提供されていないためです。 AI企業にとって事態をさらに悪化させるのは、ガートナーの調査によると、消費者は、何か問題が発生した場合、AIを使用または提供する組織が責任を負うべきだと考えていることだ。

AI 投資を保護するために、脅威に対処するセキュリティ対策を実施することは、あらゆる組織にとって利益になります。 AI に対する脅威や攻撃は、AI モデルのセキュリティやデータの安全性を危険にさらすだけでなく、モデルのパフォーマンスや結果も危険にさらします。

犯罪者は通常 2 つの方法で AI を攻撃します。技術者はこれらの脅威を軽減するための措置を講じることができますが、まずは AI の 3 つの主要なリスクについて見ていきましょう。

人工知能の安全性、責任、社会的リスク

AI を使用する組織は、3 種類のリスクに直面します。 AI が普及し、企業の重要な業務に組み込まれるようになるにつれて、セキュリティ リスクが増大します。たとえば、自動運転車の AI モデルにバグが含まれていて、それが致命的な事故につながる可能性があります。

機密性の高い顧客データを使用する AI モデルが顧客に影響を与える意思決定にますます影響を与えるようになるため、責任リスクが増大します。たとえば、AI の信用スコアに誤りがあると、消費者がローンを取得できなくなり、金銭的損失や評判の損失につながる可能性があります。

「無責任なAI」が透明性も理解しやすさもない偏った決定を下すことで、消費者にとって不利で不公平な結果を生み出すため、社会的リスクが増大しています。わずかな偏りでも、アルゴリズムの重大な誤動作につながる可能性があります。

犯罪者がAIを攻撃するよくある方法

上記のリスクは、犯罪者が AI を攻撃する一般的な 2 つの方法、つまり悪意のある入力、嫌がらせ、調査攻撃によって引き起こされる可能性があります。

AI モデルへの悪意のある入力は、敵対的 AI、操作されたデジタル入力、または悪意のある物理的入力の形をとる可能性があります。敵対的 AI は、AI が生成した音声を使用して人間をソーシャル エンジニアリングする形をとる可能性があり、これはあらゆる種類の犯罪に使用でき、「新しい」フィッシング形式であると考えられます。たとえば、昨年 3 月には、犯罪者が AI 合成音声を使用して CEO の声を模倣し、243,000 ドルの資金を不正に自分の口座に送金するよう要求しました。

調査攻撃では、犯罪者が組織の AI モデルにプローブを送信してその仕組みを理解しようとしますが、ブラック ボックスまたはホワイト ボックスの形式で行われる場合もあります。具体的には、ブラックボックス クエリ攻撃は、金銭的利益や検出の回避などの望ましい出力を得るために、通常とは異なる乱れた入力を識別します。一部の学者は、主要な翻訳モデルの出力を操作することでそれを欺き、誤った翻訳を導き出すことに成功しました。

ホワイトボックス クエリ攻撃は、トレーニング データセットを再生成して類似のモデルを再現するため、貴重なデータが盗まれる可能性があります。一例として、音声認識ベンダーが、新しい外国ベンダーの被害に遭い、その技術を偽造して販売し、その結果、外国ベンダーが盗まれた IP に基づいて市場シェアを獲得できたケースが挙げられます。

最新のセキュリティの柱がAIの信頼性を高める

IT リーダーは、既存のセキュリティの柱 (人間中心のセキュリティ制御とエンタープライズ セキュリティ制御) と新しいセキュリティの柱 (AI モデルの整合性と AI データの整合性) を評価およびサポートするために、組織内の AI に対する脅威を認識することが重要です。

AI モデルの整合性により、組織は従業員に対する敵対的トレーニングを検討し、エンタープライズ セキュリティ制御を通じて攻撃対象領域を縮小することが推奨されます。 AI モデルとそのモデルのトレーニングに使用されるデータの由来と追跡にブロックチェーンを使用することも、組織が AI の信頼性を高める方法としてこの柱に該当します。

AI データの整合性は、AI への脅威に対処するために、データ異常分析 (分布パターンや外れ値など) とデータ保護 (差分プライバシーや合成データなど) に重点を置いています。

AI アプリケーションを保護するために、セキュリティ技術とインフラストラクチャに重点を置く技術専門家は次の作業を行う必要があります。

  • 脅威評価を実施し、厳格なアクセス制御を適用し、トレーニング データ、モデル、データ処理コンポーネントを監視することで、開発中および運用中の AI アプリケーションの攻撃対象領域を最小限に抑えることができます。
  • モデル開発中の脅威、AI モデルの欠陥の検出、サードパーティの事前トレーニング済みモデルへの依存、公開されたデータ パイプラインという 4 つの AI 固有の側面に対処することにより、ソフトウェア開発ライフサイクル (SDLC) を保護するための標準制御を強化します。
  • 最新かつ高品質で、敵対的サンプルを含むデータ リポジトリを保護および維持することで、すべてのデータ パイプラインでデータ ポイズニングを防御します。データ汚染、敵対的入力、モデル漏洩攻撃に対する堅牢性を向上させるオープンソースおよび商用ソリューションが増えています。

詐欺師が直接発見され、その後その詐欺師のシステムに対してフォレンジック調査が行われない限り、AI モデルが侵害されたことを証明することは困難です。同時に、企業は AI の使用を簡単にやめることはないので、企業における AI の導入を成功させるには、AI のセキュリティを確保することが非常に重要です。システムにセキュリティを後から組み込むのは、最初から組み込むよりもはるかにコストがかかるため、今すぐ AI を保護してください。

<<:  公正な AI システムを構築するにはどうすればよいでしょうか?

>>:  ディープラーニングの背後にある数学的アイデアを分析する

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

AIプロジェクトの失敗はもはや人材不足のせいにはされない

AI の取り組みが失敗すると、その責任はスキルのギャップにあるとされることが多いです。しかし、それだ...

機械学習はインビザラインの患者が完璧な笑顔を手に入れるのを助けている

モバイル コンピューティングのトレンドにより、企業はスマートフォンから情報にアクセスし、タスクを完了...

...

0 コーパスで「ラベル付け」してより良い多言語翻訳結果を得る方法

[[409976]]今日の多言語翻訳モデルのほとんどは、英語中心のデータセットで統合モデルをトレーニ...

Python + 機械学習手法を使用した感情分析 (詳細な手順)

辞書マッチングの方法はないのでしょうか?なぜ複数の機械学習方法が必要なのでしょうか?辞書方式と機械学...

将来最も求められる人材はどのような人材でしょうか?百度のロビン・リーはすでに予測している

今最も注目を集めている産業は何でしょうか? それは人工知能でしょう。現在、さまざまな業界が、将来の業...

AIネットワークワームが暴露:増殖を続け、スパムを送信し、データを盗むことが可能

3月3日、国際的なサイバーセキュリティチームが、生成型人工知能サービス間で独立して拡散し、データを盗...

マイクロソフトの深夜革命、GPT-4 Office フルパッケージが登場!月30ドルで10億人の労働者の雇用が奪われる?

6 か月の遅延の後、Microsoft Copilot ファミリー全体がついに登場しました。ちょう...

Google Brain Quoc、操作プリミティブから効率的なTransformerバリアントを検索するためのPrimerをリリース

[[426884]]モデルのパフォーマンスを向上させるには、パラメータを調整し、活性化関数を変更する...

人工知能アルゴリズムが核融合の応用に一歩近づく

核融合は現在一般的に使用されている核分裂法よりも安全で環境に優しいことはよく知られています。しかし、...

...

「スカイアイ」が駐車問題を解決し、人工知能が都市統治を強化

新華網、北京、3月4日、タイトル:「スカイアイ」が駐車の難しさを解決し、人工知能が都市統治を強化新華...

2019年に注目すべき9つのAIトレンド

人工知能は最近テクノロジーの世界で話題になっています。それは人々の生活を変えただけでなく、さまざまな...

職場でロボットが増えると、雇用に影響が出るでしょうか?

最近、中国労働・社会保障科学院の莫容研究チームが発表した研究結果によると、わが国における人工知能の雇...

ニューラルネットワークの動作原理を1つの記事で理解する

この記事では、ディープ ニューラル ネットワークの一般的な概要を説明します。今日では、人工知能につい...