AIのリスクと安全性をどのように管理するのか?

AIのリスクと安全性をどのように管理するのか?

AI モデルのトレーニングには、大規模で機密性の高いデータセットが使用されることが多く、プライバシーやデータ漏洩のリスクが生じます。 AI を使用すると、組織の脅威ベクトルが増加し、攻撃対象領域が拡大します。 AI はさらに、無害なエラーがパターンやビジネスの結果に悪影響を及ぼす新たな機会を生み出します。

理解されていないリスクは軽減できません。ガートナーが最近実施した最高情報セキュリティ責任者の調査では、ほとんどの組織が AI によってもたらされる新たなセキュリティおよびビジネス リスクを考慮していないか、またはそれらのリスクを軽減するために新たな制御を導入する必要があることが明らかになりました。 AI には、新たなリスクと安全性の管理対策と軽減フレームワークが必要です。

組織内の AI リスクとセキュリティを効果的に管理するために、セキュリティおよびリスクのリーダーが重点的に取り組むべき 5 つの優先事項は次のとおりです。

1. AI露出の獲得

機械学習モデルはほとんどのユーザーにとってわかりにくく、一般的なソフトウェア システムとは異なり、その内部の仕組みは最も熟練した専門家でさえも知りません。データ サイエンティストやモデル開発者は通常、機械学習モデルが何をしようとしているのかを理解していますが、モデルがデータを処理するための内部構造やアルゴリズムの手段を必ずしも解読できるとは限りません。

この理解不足により、組織の AI リスク管理能力が著しく制限されます。 AI リスク管理の最初のステップは、サードパーティ ソフトウェアのコンポーネントであるか、社内で開発されたものか、またはサービスとしてのソフトウェア アプリケーションを通じてアクセスされるものかを問わず、組織で使用されているすべての AI モデルをリストすることです。これには、さまざまなモデル間の相互依存性を識別することが含まれます。次に、特定された優先順位に基づいてリスク管理制御を段階的に適用できることを考慮して、モデルは運用上の影響に応じてランク付けされます。

モデルがレイアウトされたら、次のステップは、モデルを可能な限り解釈可能または説明可能にすることです。 「解釈可能性」とは、特定の対象者に対してモデルの機能を明確にする詳細、理由、または説明を作成する能力を意味します。これにより、リスクおよび安全管理者は、モデルの結果から生じるビジネス、社会、責任、および安全上のリスクを管理および軽減するためのコンテキストを得ることができます。

2. AIリスク教育活動を通じて従業員の意識を高める

従業員の意識は AI リスク管理の重要な要素です。まず、CISO、最高プライバシー責任者、最高データ責任者、法務およびコンプライアンス責任者を含むすべての関係者に、AI に対する考え方を再調整してもらいます。 AI は「他のアプリケーションとは異なる」ものであり、固有のリスクをもたらすため、そのようなリスクを軽減するには特定の制御が必要であることを理解する必要があります。次に、ビジネス関係者と連携して、管理する必要がある AI リスクに関する認識を広げます。

これらの関係者と協力して、チーム全体にわたって、また長期にわたって AI の知識を構築するための最適な方法を決定します。たとえば、基本的な AI 概念に関するコースを会社の学習管理システムに追加できるかどうかを検討します。アプリケーションとデータのセキュリティに取り組んで、組織のすべてのメンバーの間で AI の知識を構築します。

3. プライバシー保護の取り組みを通じてAIデータの露出を排除する

最近のガートナーの調査によると、プライバシーとセキュリティが AI 実装の大きな障壁として挙げられています。データ保護とプライバシーの手順を採用することで、AI 内および共有データ内のデータの漏洩を効果的に排除できます。

プライバシーとデータ保護の要件を満たしながら、重要なデータにアクセスして共有するために使用できる方法は多数あります。組織の特定のユースケースに最も適したデータ プライバシー テクノロジー、またはテクノロジーの組み合わせを決定します。たとえば、データ マスキング、合成データ生成、差分プライバシーなどの技術を調査します。

データを外部組織にエクスポートまたはインポートする場合は、データ プライバシー要件を満たす必要があります。このようなシナリオでは、内部ユーザーやデータ サイエンティストからデータを保護するだけでなく、完全準同型暗号化や安全なマルチパーティ計算などの手法がより有用になるはずです。

4. モデル運用にリスク管理を組み込む

AI モデルでは、人工知能の信頼性と効率を高めるために、モデル操作 (ModelOps) の一部として特別な目的のプロセスが必要です。環境要因が変化し続けるため、AI モデルはビジネス価値の漏洩や予測不可能な (場合によっては悪影響のある) 結果を継続的に監視する必要があります。

効果的な監視には AI モデルを理解する必要があります。 AI の信頼性、正確性、公平性を高め、敵対的攻撃や無害なエラーに対する耐性を高めるには、専用のリスク管理プロセスを ModelOps の不可欠な部分にする必要があります。

コントロールは、モデルの開発、テストと展開、継続的な運用など、継続的に適用する必要があります。効果的な制御により、不公平、破損、不正確さ、モデルのパフォーマンスと予測の低下、その他の意図しない結果につながる悪意のある動作、無害なエラー、AI データまたはモデルへの予期しない変更が検出されます。

5. AIセキュリティ対策を使用して敵対的攻撃に対抗する

AIへの攻撃を検出し、防止するには新しいテクノロジーが必要になります。 AI に対する悪意のある攻撃は、財務、評判、知的財産、機密顧客データ、独自データに関連するデータなど、組織に重大な損害と損失をもたらす可能性があります。セキュリティに取り組むアプリケーション リーダーは、異常なデータ入力、悪意のある攻撃、無害な入力エラーを検出するために、AI アプリケーションに制御を追加する必要があります。

AI モデルとデータに関する従来のエンタープライズ セキュリティ制御の完全なセットと、敵対的 AI に耐えるモデルのトレーニングなど、AI 固有の新しい整合性対策を実装します。最後に、不正行為、異常検出、ボット検出の技術を使用して、AI データの汚染や入力検出エラーを防ぎます。​

<<:  TensorFlow が機械学習開発に使用できるのはなぜですか?

>>:  天津市が顔認証訴訟で勝利、コミュニティが顔認証を唯一のアクセス手段として使用することは違法と判断

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

...

5Gネットワ​​ーク構築80%:5Gロボットが新たな転換点を迎えようとしている

最近、CCTVニュースによると、中国は2月末までに計画通り5Gネットワ​​ーク構築の80%を完了した...

未来のスマートホームにAIがどのように統合されるか

人工知能(AI)については多くの誇大宣伝がなされていますが、それは人類のこれまでの発明と同じくらい画...

...

...

ソフトウェアは世界を飲み込んでいるが、AIはソフトウェアを飲み込んでいる

COVID-19が世界を席巻したとき、人工知能はなぜ大きな空白を埋めることができるのか?教育、セキュ...

GoogleはDeepMind AIを使用して何千もの新しい素材を分析および予測しました

IT Homeは11月30日、GoogleのDeepMindが人工知能(AI)を使って200万以上の...

GPT-5 プレビュー!アレン人工知能研究所がGPT-5の新機能を予測する最も強力なマルチモーダルモデルを発表

GPT-5 はいつ登場し、どのような機能を持つのでしょうか?アレンAI研究所の新しいモデルがその答え...

ネットワークケーブルに沿って登ることが現実になりました。Audio2Photorealは、対話を通じてリアルな表情や動きを生成できます

携帯電話の冷たい画面を通して友達とチャットするときは、相手の口調を推測する必要があります。彼/彼女が...

2019年のAI技術のブレークスルーをすべて見る

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

AIは古い文化的シンボルを解体し革新することはできない

1950 年代後半から 1960 年代前半にかけて、一群の芸術家と作家がパリの荒廃したホテルに移り住...

...

...

【2021年開始】人工知能産業の発展は依然として多くの課題に直面している

[[380335]]新華網、北京、2月3日(記者:孫雲龍)新たなインフラの重要な部分として、人工知能...