ガートナーによると、2026年までに、人工知能(AI)によって生成された顔認証のディープフェイク攻撃により、企業の30%が、このような認証および検証ソリューションが確実に使用できると信じなくなるだろう。 「過去 10 年間の AI のいくつかの変曲点により、合成画像の作成が可能になりました。ディープフェイクと呼ばれる人工的に生成されたリアルな顔の画像は、悪意のある人物によって生体認証を欺いたり、破ったりするために使用できます」と、ガートナーのリサーチ バイスプレジデントであるアキフ カーンは述べています。「その結果、企業は実際の人物の顔とディープフェイクを区別できないため、ID 認証および検証ソリューションの信頼性に疑問を抱き始める可能性があります。」 現在、顔認証を使用した認証および検証プロセスでは、ユーザーの信頼性を評価するためにプレゼンテーション攻撃検出 (PAD) に依存しています。 「デジタルインジェクション攻撃は、AIによって生成できるようになったディープフェイクをすでに悪用し始めており、PADメカニズムを定義および評価するための現在の標準とテストプロセスでは、このような攻撃はカバーされていない」とカーン氏は述べた。 ガートナーの調査によると、ペリフレーズ攻撃が最も一般的な攻撃ベクトルである一方、インジェクション攻撃 (IAD) は 2023 年までに 200% 増加すると予想されています。このような攻撃を防ぐには、PAD、IAD、画像検出を組み合わせる必要があります。 IADと画像検出ツールを組み合わせることでディープフェイクの脅威を軽減顔の生体認証を欺くことができる AI 生成のディープフェイクの脅威から組織を保護するには、最高情報セキュリティ責任者 (CISO) とリスク管理リーダーが、現在の標準を超える機能と計画を備え、これらの新しい攻撃を監視、分類、定量化していることを実証できるベンダーを選択する必要があります。 「企業は、この新たなディープフェイクの脅威を軽減するために、IADと画像検出技術の使用に特に投資しているベンダーと提携して、最低限の管理基準の開発を開始すべきだ」とカーン氏は述べた。 戦略と最低基準を策定した後、CISO とリスク管理リーダーは、デバイス識別や行動分析などの追加のリスクおよび識別シグナルを追加して、認証プロセスへの攻撃を検出する可能性を高める必要があります。 最も重要なのは、アイデンティティとアクセス管理を担当するセキュリティおよびリスク管理のリーダーが、実在の人物を検証できるテクノロジーを選択し、アカウント乗っ取りを防ぐ対策を実施することで、AI ディープフェイク攻撃によるリスクを軽減するための措置を講じる必要があることです。 |
<<: 顔認識は終わったのか?最初の「顔ハイジャック」型バンキングトロイの木馬が誕生
>>: Sora がインターネット上で話題になるバイラル動画を作成、OpenAI は TikTok の競合製品を立ち上げようとしているのか?専門家は推測する:これは計画の一部である
前回の記事では、GoogLeNet InceptionV1のネットワーク構造を紹介しました。この記事...
第三者の介入なしに何十億ものデバイスを接続してデータを交換できるため、モノのインターネット (IoT...
[51CTO.com からのオリジナル記事] 今年は Global Mobile Internet ...
新興技術の発展とビジネス、公共福祉、社会統治などの分野におけるその応用をどのように促進、保護、規制す...
エージェントが現実世界での人間の行動を模倣する場合、それをプロンプトエンジニアリングに適用できますか...
タンパク質と小分子リガンドによって形成される結合複合体は、生命にとって遍在し、不可欠です。科学者は最...
みなさんこんにちは、カソンです。テクノロジー系のブログをよく読む友人なら、 Webpilot [1]...
最近、誰かが StackExchange で、ネットユーザーに現在世界で最も古典的なアルゴリズムのト...
クアルコムは、計算能力とエネルギー効率の点で優れたチップを備えた、世界最大のスマートフォンプロセッサ...
自動化された機械学習は、過去 1 年間で大きな関心を集めるトピックになりました。 KDnuggets...