AIアルゴリズム「ディープフェイク」は、さまざまな人物のリアルな画像や動画を生成でき、顔を変える分野で広く利用されている。しかし、ディープフェイクを使ってアダルトビデオが作られるなど、AIによる顔を変える技術は論争を引き起こし続けており、人々に大きな迷惑をかけている。 最近、海外メディアpcmagによると、FBIは、詐欺師がディープフェイク技術を使用してリモートワークの面接で求職者になりすまし、IT企業に就職して顧客や財務データ、企業のITデータベース、および/または専有情報にアクセスしようとしていると発表した。 一部の企業は、応募者の個人情報が他人のものであったことを明らかにした。 顔の入れ替え前と入れ替え後のキャラクターの顔。画像出典: Facebook/Meta 問題はこれです。現地時間6月28日、FBIインターネット犯罪苦情センター(IC3)は、公聴会で、求職者になりすまされたという苦情が最近増加していると述べた。詐欺師たちは、被害者から盗んだディープフェイク技術と個人情報を利用して、雇用主を騙し、リモートワークや在宅勤務の仕事に雇わせようとしている。 これらの仕事には、IT およびコンピュータ プログラミング、データベース、ソフトウェア関連の職種が含まれます。 画像出典: https://www.ic3.gov/Media/Y2022/PSA220628 これまで、ディープフェイクは AI を活用したプログラムを使用して、リアルだが偽の人物画像を作成してきました。ビデオに関しては、この技術は有名人の顔を他人の体に複製することができます。音声に関しては、この技術は人の声を複製し、それを操作して好きなことを言うことができます。 しかし、今回のFBIの調査では、ディープフェイク技術が個人情報の盗難にも役立っていることがわかった。詐欺師は、潜在的な応募者とのオンライン面接中に、音声のなりすまし、つまり偽の音声を使用します。詐欺師たちは、こうしたディープフェイク技術を利用して、IT 企業のリモート勤務や在宅勤務の職に応募しています。 FBIはこれらの詐欺師の最終的な目的を明らかにしなかったが、関与した職位には顧客のPII(個人識別情報)、財務データ、企業のITデータベース、および/または専有情報へのアクセスが含まれていたと指摘した。この種の情報は、詐欺師が企業から貴重な情報を盗み、その他の個人情報詐欺を実行するのに役立ちます。 画像出典: https://www.bangkokpost.com/ しかし、良いニュースとしては、雇用主にはディープフェイクを検出する方法があるということです。詐欺師たちは潜在的な雇用主とビデオ面接を行っているが、詐欺師が話すときにはAIベースの技術にまだ欠陥があることをFBIは指摘した。 たとえば、カメラの前でのインタビュー対象者のボディランゲージや唇の動きが、声の音と完全に一致していないことがあります。咳やくしゃみなどの聴覚的な動作が、視覚的に表現されているものと一致しない場合があります。 |
<<: 2022年ワールドカップ、審判の補助に人工知能を導入
人間や機械がタスクをよりうまく実行できるようになるたびに、証拠の痕跡が残ります。パフォーマンス向上の...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
自然言語処理は AI の最高峰であり、コーパス前処理は自然言語処理の基礎です。 [[336067]]...
恒生銀行とその子会社である恒生聚源は6月28日、金融インテリジェントアシスタントPhotonや新しく...
コンテクストデータ サイエンスは急速に進化しており、機械学習の役割は、データ サイエンスのハイブリッ...
[[199775]]現在、人工知能はますます人気が高まっている分野となっています。普通のプログラマ...
[[389342]] 10年以上前であれば、おそらく多くの人が、将来中国が日本や米国と同じくらい発...
スケジューラは、次に実行するプロセスを選択する役割を担うオペレーティング システム カーネルの一部で...
PyTorch または TensorFlow を使用していますか?人々のグループによって答えは異なる...
ロボット工学は近年驚異的な進歩を遂げました。ロボティックプロセスオートメーションなどの分野は、ますま...
[[426794]]この記事はWeChatの公開アカウント「3分でフロントエンドを学ぶ」から転載した...
1. はじめに近年、人工知能技術は活発な発展の傾向を示し、新たな科学技術革命と産業変革をリードする戦...