シャドーAIの潜在的な脅威に対処するための4つのヒント

シャドーAIの潜在的な脅威に対処するための4つのヒント

AI ツールの導入はほとんどの組織がセキュリティを確保できるよりも速いペースで進んでいるため、シャドー AI に関連する課題は改善される前に悪化する可能性があります。


調査によると、ほぼ半数(49%)の人が生成型 AI を使用したことがあり、3 分の 1 以上が日常的に使用しています。生成 AI には多くの利点と使用例があることは否定できませんが、IT ガバナンスの対象外の組織内でこれらのツールを違法または無許可で使用すると (シャドー AI と呼ばれる)、重大なリスクにつながる可能性があります。

過去 1 年間、Amazon などのテクノロジー大手が ChatGPT やその他の AI ツールを活用してビジネス上の利益を得る機会を捉えてきました。しかし、他の企業はそれらの使用を禁止している。昨年、サムスンは偶発的なデータ漏洩が発生した後、従業員によるChatGPTやGoogleBardなどのツールの使用を禁止した。ゴールドマン・サックスやシティグループを含む多くの銀行も、機密情報の共有に対する懸念から人工知能の使用を制限している。

著名な組織がこのように反応しているのは、シャドー AI が未知の脅威をもたらし、シャドー IT 脅威のより広範なカテゴリ内でセキュリティとコンプライアンスに対する新たな脅威ベクトルを提供するためです。

成功したサイバー攻撃の 3 分の 1 はシャドー IT から発生していると推定されています。それでも、シャドー IT の脅威はよく知られており、一度特定されれば比較的簡単に管理できます。それを廃止して次に進みましょう。一方、シャドー AI は、定量化や管理が難しい未知のリスクをさらに増大させます。これらのツールの無許可使用だけの問題ではありません。また、許可されていない、現在規制されていない領域での企業データの承認されていない使用も含まれます。さらに、これらの AI ツールの使用または潜在的な使用は技術者に限定されません。

これらの要因と、より短時間でより多くの成果を達成できるという期待が相まって、より多くの人が企業データを不正なツールに入力するようになり、機密情報や知的財産が危険にさらされることになります。

シャドー AI とは何ですか? シャドー AI は、正式なレビューや承認なしに組織内で独自に開発または採用される AI テクノロジーとシステムを指す比較的新しい概念です。この現象は、企業、政府機関、さらには小規模なチームなど、あらゆる規模の組織で発生する可能性があります。シャドー AI は、チームや個人が正式な承認プロセスを回避してプロジェクトを迅速に進めたり、特定の問題を解決したりしようとすることから発生することがよくありますが、そうすることで多くのリスクと課題が生じる可能性があります。

シャドーAIのリスク

データ セキュリティとプライバシー: 検証されていない AI システムは、組織のデータ保護ポリシーに従わずに機密データや保護されたデータを処理する可能性があり、データ漏洩や誤用のリスクが高まります。

互換性と統合の問題: 独自に開発された AI ソリューションは、組織の既存の IT アーキテクチャやシステムと互換性がない可能性があり、統合の問題や非効率性につながります。

品質と信頼性の問題: シャドー AI プロジェクトは十分にテストおよび検証されていない可能性があり、そのパフォーマンスと信頼性は保証されないため、誤った決定や潜在的なビジネス損失につながる可能性があります。

リソースの分散: 承認されていないプロジェクトは、正式に承認されたプロジェクトをサポートするために使用できる時間、資金、人員などの限られたリソースを消費する可能性があります。

法的およびコンプライアンス上のリスク: 検証されていない AI テクノロジーを使用すると、業界固有の法律や規制に違反する可能性があり、組織は法的措置や罰金のリスクにさらされます。

シャドーAIに対処するための戦略

正式な AI ガバナンス フレームワークを確立する: すべての AI プロジェクトが組織のポリシー、標準、プロセスに準拠していることを確認します。

透明性の向上: 正式に承認されているか、探索段階にあるかにかかわらず、チームが AI プロジェクトを報告して共有することを奨励します。

教育とトレーニング: データ保護、AI 倫理、コンプライアンスについて従業員をトレーニングします。

リソースとサポートを提供する: AI ソリューションを検討したいチームに必要なリソースとガイダンスを提供し、独自にシャドー AI を導入する動機を減らします。

リスク評価プロセスを実装する: 新しく導入されたすべての AI システムとテクノロジーが適切なリスク評価を受け、潜在的なセキュリティとコンプライアンスのリスクを特定して軽減されるようにします。

これらの戦略を通じて、組織はシャドー AI がもたらすリスクを軽減しながら、技術革新と進歩を促進することができます。

シャドーAIの潜在的な脅威に対処するための4つのヒント

データアクティビティを管理および監視する従来のアプローチは、データ環境を保護し、許可されたデータの使用を確保し、プライバシー要件を満たすために重要ですが、データセンターの外部のシャドー AI から防御するには不十分です。また、すべての AI の使用が全面的に禁止されているわけでもなく、多くの従業員が AI をひそかに自分たちの利益のために使用する方法を見つけ続けるでしょう。

幸いなことに、IT リーダーがこれらの潜在的な脅威を軽減するために実行できる追加の手順がいくつかあります。これらには以下が含まれます:

AI の未承認使用のリスクについて従業員を教育し、シャドー AI 侵害のほとんどが悪意によるものではないことを覚えておくことが重要です。同僚、友人、家族から、ChatGPT のような人気のプラットフォームが面倒な作業の軽減やアートや音楽の作成に役立つことを聞いた従業員は、そのプラットフォームを試して、どのようなメリットが得られるかを確認したいと考えることがよくあります。したがって、重要な最初のステップは従業員を教育することです。

シャドー AI がもたらす脅威と影響について詳しく見てみましょう。まず、機密情報や独自の情報をブラックボックス AI に取り込む可能性があります。第二に、企業における AI の使用に関する総合的な理解が欠如しているため、AI の障害の影響が不明になります。従業員に対してこのレベルの透明性を確立することは、リスクが現実のものであることを示すのに役立ちます。

AI ポリシーとプロセスを更新する: すべての AI の使用を全面的に禁止することは、多くの企業、特に機械学習や大規模な言語拡張を日常的に使用している企業にとって合理的な方法ではありません。しかし、IT リーダーはポリシーを更新して、特定の AI 制限とビジネス ニーズの承認を得る方法に関するガイダンスを含めることができます。正当なユースケースに承認されたパスを提供するために、組織は AI の使用状況を確認するプロセスを実装できます。そのプロセスでは、企業がユースケースを確認し、リスクを評価し、承認または拒否することができます。

エンドポイント セキュリティ ツールを導入する: 実際には、AI 教育と更新されたポリシーだけでは、すべてのユーザーがシャドー AI テクノロジーやサービスを試すのを防ぐことはできません。したがって、組織は自らをさらに保護するために、すべての AI の使用状況の可視性を高め、ユーザー レベルでの外部リスクを軽減する追加のツールを導入する必要があります。エンドポイントは、ユーザーがシャドー AI をまだ使用しているかどうか、またどのように使用しているかを制御または把握するための最も効果的な場所になります。したがって、多くの場合、エンドポイント セキュリティ ツールを導入することが、リモート ユーザーとクラウドベースの AI プラットフォームに対する最大のリスクに対処するソリューションとなります。これは、クラウド アクセス セキュリティ ブローカー (CASB) などのテクノロジーや、エンドポイントやリモート ワーカーの問題に対処するその他のテクノロジーの形で実現できます。

AI ベンダーとエンドユーザー契約を締結する: エンドユーザー ライセンス契約 (EULA) は、IT の世界では珍しいことではありません。これらの契約はソフトウェア ライセンス契約とも呼ばれ、エンド ユーザーとソフトウェア ベンダーの間で締結されます。これらのプロトコルは、ソフトウェア レベルで実装されると、ユーザーが特定のソフトウェアまたはアプリケーションをどのように使用できるかに関するパラメータを設定します。この契約にはソフトウェアの使用に関する制限も含まれています。たとえば、EULA では、ベンダーではなくユーザー自身の利益になるような方法でソフトウェアを配布または共有することを制限します。 AI の観点から見ると、同様のプロトコルを実装すると、AI モデルやプラットフォームにどのようなデータが取り込まれるかを制御する上で有益となる可能性があります。これらのモデルを活用する際に従業員が使用できるデータの種類と使用できないデータの種類を明確に規定した正式な契約は、明確な境界とガイドラインを設定するのに役立ちます。また、AI ベンダー自身とのコミュニケーションも開かれ、プロセスの共同作業と透明性が高まります。

将来に向けて

残念ながら、ほとんどの組織が AI ツールをセキュリティで保護できるよりも速いペースで実装されているため、シャドー AI に関連する課題は改善される前に悪化する可能性があります。さらに、組織が適切な戦略を実装し、AI モデルでデータが正しく安全に利用されるようにするために必要なトレーニングを展開するには、時間がかかる可能性があります。しかし、これらのリスクに対処するために、さらに多くの企業やソリューションが登場することが予想されます。

テクノロジー業界は、データがどこに送られ、誰がそれを受け取り、どのように使用されるかについて組織が明確に理解できないほどの規模の状況に直面したことはありませんでした。すべてのシャドー IT 問題を解決するために、問題のあるシステムをすぐに廃止する時代は終わりました。結局のところ、シャドー AI の影響は甚大であり、組織は手遅れになる前に、さらなる無許可の AI の使用を防ぐために今すぐ行動する必要があります。

<<: 

>>:  OpenAI憲章中国語版

ブログ    
ブログ    

推薦する

英国はAI大規模モデルの分野で利用するためのスーパーコンピュータの開発に2億2500万ポンドを投資する予定

英国政府は11月2日、国の人工知能能力をさらに強化するため、人工知能研究資源への投資を2023年3月...

Meta、Xiaoice、NVIDIA が協力して何かを行っています!アジア初のメタバースエコロジー連盟が誕生

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

無意味または有害なボットトラフィックは年間最大2億5000万ドルのコストがかかる

Cyber​​news によると、ますます多くの企業が、検出がますます困難になっている悪意のあるボッ...

...

...

人工知能がボトルネックに到達しました!学者らが「共同で」ディープラーニングに反対し、AIの今後の発展方向を指摘

ディープラーニングにおける現在の技術的なボトルネックに対応して、清華大学の張北氏を含む多くの学者や教...

AIの技術的負債の解消は急務

この流行は世界市場に衝撃をもたらしたが、人工知能(AI)企業への資本投資は増加し続けている。 CB ...

マスク着用で顔認証での支払いは難しいですが、手渡しでの支払いは可能ですか?

人工知能技術が私たちの生活にますます統合されるにつれて、一般の人々のプライバシーに対する懸念も高まっ...

医療AIの今後の展開:注目すべき3つのトレンド

COVID-19パンデミックが猛威を振るい、人々のメンタルヘルスが危機に瀕し、医療費が上昇し、人口...

...

オフライン手法の可能性を最大限に引き出すために、武漢大学とKuaishouは分離型ビデオインスタンスセグメンテーションフレームワークDVISを提案した。

ビデオセグメンテーションタスクは、画像セグメンテーションタスクの拡張版です。ビデオ内のすべてのターゲ...

...

ドローン技術がモバイルIoTの範囲を拡大

無人航空機(口語では「ドローン」と呼ばれる)は、航空業界に無人航空機を導入することで、ライト兄弟の有...