最近、インペリアル・カレッジ・ロンドンの研究チームは、画像の内容を変えずに画像内容をスキャンするアルゴリズムを簡単に欺くことができる新しいアルゴリズムを提案し、人間の目には同じに見える写真がアルゴリズムの前では違って見えるようにした。これには、Apple の CSAM スキャン アルゴリズムが含まれます。
CSAM スキャン アルゴリズムとは何ですか?CSAM(児童性的虐待素材)は、今年初めにAppleが開始した提案です。具体的な内容は、違法画像の拡散を防ぐことです。Appleは、ユーザーが個人的に共有し、iCloudクラウドに保存した写真のハッシュ値を比較するアルゴリズムを特別に開発しました。写真がサードパーティの CSAM データベースと正常に一致した場合、Apple は写真をブロックするか、警察に通報するかを選択します。 ユーザーの写真情報への不正アクセスはユーザーのプライバシーを著しく侵害するものであることから、この提案は開始直後からユーザーやメディアから強い反対を受け、最終的に今年9月に撤回された。しかし、AppleはCSAMを諦めたわけではなく、その推進を2022年まで延期し、アルゴリズムをさらに改良することを約束した。 画像スキャンアルゴリズムは違法画像を正確に検出できますか?研究者たちは当初から、Apple が提案した CSAM スキャン アルゴリズムが、同社の主張どおりに違法な画像を正確に検出し、傍受できるかどうか疑問視していた。実際の研究結果によれば、Apple の CSAM も他の画像スキャン アルゴリズムも、違法画像を正確に検出することはできないことがわかっています。 研究者らは、論文では離散コサイン変換ベースのアルゴリズムに対する2つのホワイトボックス攻撃と1つのブラックボックス攻撃を提案し、画像上の固有の特徴をうまく変更してアルゴリズムのスキャンを回避するのに役立ったと説明した。 簡単に言えば、人間の目には同じに見える 2 つの画像が、アルゴリズムによって検出されたときに異なるように見えるようにするには、画像に特別なハッシュ フィルターを適用するだけです。 画像提供: インペリアル・カレッジ・ロンドン 画像スキャンアルゴリズムが「不正に操作される」のを防ぐにはどうすればよいでしょうか?画像スキャンアルゴリズムが「効果的に」機能し、アルゴリズムに騙されないことを保証するために、研究者らは2つの方法を提案した。1つは検出しきい値を拡大すること、もう1つは画像IDの一致が一定のしきい値に達した後にのみユーザーをマークすることである。 しかし、これら 2 つの方法はどちらも、画像スキャン結果の信頼性を根本的に高めることはできず、むしろ、ユーザーのプライバシーを侵害するなど、より多くの問題を引き起こすことになります。 参考文献: https://www.bleepingcomputer.com/news/technology/researchers-show-that-apple-s-csam-scanning-can-be-fooled-easily/ |
<<: AI 駆動型データ分析ツールが企業や組織にもたらすメリット
>>: 成功は AI のおかげであり、失敗も AI のおかげです。アメリカで最も成功している AI 不動産評価会社が危機に陥り、従業員 2,000 人を解雇。モデルは失敗しているのか?
[[323304]] [51CTO.com クイック翻訳] 疫病の影響により、多くの企業従業員がリモ...
AlphaGoとイ・セドルの人間対機械の戦い以来、人工知能はかつてないほどの注目を集め、大手企業が...
9月26日、市場調査会社Canalysが発表した最新レポートによると、現在のAIの波の中で、企業や消...
[51CTO.com からのオリジナル記事] 2010 年以降、レコメンデーション システムの分野で...
最近、Google は強力なコンピューティング リソースで再び大きな話題を呼び、Meta AI の友...
ロボットの知能化に向けた開発において、マルチロボット協働システムは包括的な技術統合プラットフォームで...
少し前に、オープンソースのビッグモデル分野に新しいモデル「易」が導入されました。このモデルはコンテキ...
OpenAIは7月21日、カスタム指示機能のリリースを発表しました。この機能はまずPLUSプランのベ...
CSDNパスワード漏洩事件では、ネットユーザーらはパスワードのプレーンテキスト保存とMD5保存の問題...
最近、CVPR2022の各競技の結果が次々と発表されました。ByteDanceの知能創造AIプラット...