2021 年に向けて、より多くの組織が新しいテクノロジーを採用するにつれて、テクノロジーとサイバーセキュリティにおける AI の未来は進化し続けるでしょう。最近の調査によると、組織の 3 分の 2 がすでにサイバーセキュリティの目的でスマート テクノロジーを活用しています。これらのツールを使用することで、企業はサイバー犯罪の手法だけでなく AI テクノロジーも使用して絶えず進化する革新的な攻撃に対して、より適切に備えることができます。たとえば、昨年だけでも、犯罪者はAIベースのソフトウェアを使用してCEOの声を模倣し、22万ユーロ(約24万3000ドル)の現金送金を要求した。 2021 年にセキュリティ スタックにさらに多くの AI を統合することを検討している企業にとって、他の部分のセキュリティを損なうことなく AI を効果的に使用するために、次の 6 つの手順に従うことが重要です。
サイバーセキュリティにおけるAIの責任ある利用の促進 最近のデータによると、経営幹部の 4 分の 3 が、AI を使用することで組織が侵害に迅速に対応できるようになると考えています。脅威の状況は急速に変化し続けており、サイバーセキュリティのリーダーは、サイバー犯罪者が開発した新しい戦術に対抗するために AI を導入する必要があります。一方、企業は、ポリシーがこの受け入れをサポートするようにすることに重点を置く必要があります。たとえば、AI プログラムに対する米国の輸出規制により、企業は AI の利用において、世界的なサイバーセキュリティ市場で競争力を維持し続けることができるようになるはずです。 AIの概念が脅威モデリングとリスク管理に確実に組み入れられるようにする AI の導入は世界中で拡大しており、AI イニシアチブの 4 分の 1 以上がすでに実稼働しており、プロジェクトの 3 分の 1 以上が高度な開発段階にあります。ただし、攻撃者がこの成長と新たに統合された AI システムをどのように不安定化させようとする可能性があるかを検討することは賢明です。まだ広く普及しているわけではありませんが、機械学習システムが広く採用されるようになると、データ汚染攻撃やトレーニング モデルのバックドアなどのサイバー攻撃が機械学習システムに対して実行される可能性があります。 AI システムを組み込んだ脅威モデルはまれであり、未熟な場合が多いです。ビジネスリーダーは、このような脅威を最小限に抑えるために、AI がリスク管理活動の範囲内にあることを保証する方法の開発に取り組む必要があります。 AIシステムの倫理ガイドラインの開発と推進 公共部門と民間部門の両方が AI アプリケーションで倫理ガイドラインを使用し、これらの倫理フレームワークに強力なセキュリティと透明性の管理を組み込むことを奨励する必要があります。 AI をサイバーセキュリティ プログラムに適用する方法は多数ありますが、Microsoft AI 原則などのフレームワークが承認されていることを確認することが重要です。倫理的な AI をサポートできる原則には、AI の偏見を排除すること、AI データを保護すること、AI テクノロジーが世界に与える影響について人々が責任を負うようにすることなどがあります。 透明性をサポートし、新たな発見をオープンに共有する AI に関する新たな研究や新たな敵対的攻撃と防御は、会議の議事録や学術雑誌に頻繁に掲載されています。しかし、寄稿論文では、どのようにして研究結果に至ったのかが十分に説明されていない場合があり、また、多くの論文では、結果を正確に再現するためのコードが提供されていなかったり、コードへのリンクが貼られていなかったりします。同様に、AI 研究を行っている企業は秘密裏に研究を行っていることが多く、AI の進歩の検証と実装に負担をかけています。これにより、セキュリティ担当者がこれらのモデルに対する攻撃の可能性を評価することがより困難な環境になり、最終的には企業がこれらの脅威に対抗することがより困難になります。 AIシステムへの攻撃的な研究を優先する AI 技術を製品に適用する前に、企業はこれらの新しい技術の潜在的なリスクを検証する必要があります。組織は、AI アプリケーションと関連する機械学習システムが、現在のセキュリティ プログラムの監視およびテストの範囲に適していることを確認する必要があります。監視とテストには、気付かれない可能性のある予期せぬ AI の欠陥の発見をサポートするための企業による自主的な措置と、セキュリティ フレームワーク、ガイダンス、セキュリティ研究者との連携の両方が含まれる必要があります。 プライバシー保護機械学習の作成と統合への欲求 機械学習や AI 技術はますます普及していますが、プライバシーへの影響についてはまだ広く調査されていません。特に、ニューラル ネットワークはトレーニング データから特定の例を記憶できます。その結果、AI システムはモデル反転攻撃に対して脆弱になる可能性があります。モデル反転攻撃では、モデルを繰り返しクエリしてトレーニング例を再作成することで、モデルのトレーニングに使用されたデータが盗まれます。モデルが機密データでトレーニングされた場合、攻撃者はトレーニング データに関する情報を復元できる可能性があります。プライバシー侵害のリスクが増大するにつれ、プライバシーを保護する機械学習システムを導入し開発する必要性が高まっています。これにより、ビジネスが保護されるだけでなく、データを使用してモデルをトレーニングする消費者も保護されます。 AI をサイバーセキュリティ プログラムに統合するのは簡単な作業ではありません。ビジネスリーダーは、合併がもたらす課題を認識し、倫理性を維持し、個人データを保護しながらサイバーセキュリティ プログラムを強化するソリューションを開発する必要があります。 AI テクノロジーの責任ある使用に関する明確な公開ガイドラインに従うことに加え、脅威モデリングと継続的な AI 研究を奨励することが、AI をサイバーセキュリティ プログラムに統合する際に成功につながる重要なステップです。 |
実名制やビッグデータ認識などの技術を利用することで、高齢者は北京電信のカスタマーサービスに電話する際...
[[342735]] [51CTO.com クイック翻訳] 人工知能(AI)が今日、さまざまな業界で...
現在、ディープラーニングはデータサイエンスの分野で最も人気のあるスキルとなっています。ディープラーニ...
海外メディアの報道によると、マイクロソフトは、自動化や人工知能によるコンテンツ決定に向けた同社の取り...
[[385429]]人工知能は、自宅からリモートで仕事をしながら生産性を維持したい労働者にとって重要...
2020年5月、GPT-3はGPT-2の1年後に正式にリリースされました。GPT-2も、オリジナル...
[[421713]]人工知能(AI)がその発明に対して特許を申請できるかどうかに関して、米国連邦政府...
[[383980]]冒頭に書いた私自身、毎年まとめを書く習慣があります。2020年は、私の職務が垂...
編集者注: 日々の仕事や研究において、データ サイエンティストが遭遇する最も一般的な問題の 1 つは...