AIアルゴリズム「ディープフェイク」は、さまざまな人物のリアルな画像や動画を生成でき、顔を変える分野で広く利用されている。しかし、ディープフェイクを使ってアダルトビデオが作られるなど、AIによる顔を変える技術は論争を引き起こし続けており、人々に大きな迷惑をかけている。 最近、海外メディアpcmagによると、FBIは、詐欺師がディープフェイク技術を使用してリモートワークの面接で求職者になりすまし、IT企業に就職して顧客や財務データ、企業のITデータベース、および/または専有情報にアクセスしようとしていると発表した。 一部の企業は、応募者の個人情報が他人のものであったことを明らかにした。 顔の入れ替え前と入れ替え後のキャラクターの顔。画像出典: Facebook/Meta 問題はこれです。現地時間6月28日、FBIインターネット犯罪苦情センター(IC3)は、公聴会で、求職者になりすまされたという苦情が最近増加していると述べた。詐欺師たちは、被害者から盗んだディープフェイク技術と個人情報を利用して、雇用主を騙し、リモートワークや在宅勤務の仕事に雇わせようとしている。 これらの仕事には、IT およびコンピュータ プログラミング、データベース、ソフトウェア関連の職種が含まれます。 画像出典: https://www.ic3.gov/Media/Y2022/PSA220628 これまで、ディープフェイクは AI を活用したプログラムを使用して、リアルだが偽の人物画像を作成してきました。ビデオに関しては、この技術は有名人の顔を他人の体に複製することができます。音声に関しては、この技術は人の声を複製し、それを操作して好きなことを言うことができます。 しかし、今回のFBIの調査では、ディープフェイク技術が個人情報の盗難にも役立っていることがわかった。詐欺師は、潜在的な応募者とのオンライン面接中に、音声のなりすまし、つまり偽の音声を使用します。詐欺師たちは、こうしたディープフェイク技術を利用して、IT 企業のリモート勤務や在宅勤務の職に応募しています。 FBIはこれらの詐欺師の最終的な目的を明らかにしなかったが、関与した職位には顧客のPII(個人識別情報)、財務データ、企業のITデータベース、および/または専有情報へのアクセスが含まれていたと指摘した。この種の情報は、詐欺師が企業から貴重な情報を盗み、その他の個人情報詐欺を実行するのに役立ちます。 画像出典: https://www.bangkokpost.com/ しかし、良いニュースとしては、雇用主にはディープフェイクを検出する方法があるということです。詐欺師たちは潜在的な雇用主とビデオ面接を行っているが、詐欺師が話すときにはAIベースの技術にまだ欠陥があることをFBIは指摘した。 たとえば、カメラの前でのインタビュー対象者のボディランゲージや唇の動きが、声の音と完全に一致していないことがあります。咳やくしゃみなどの聴覚的な動作が、視覚的に表現されているものと一致しない場合があります。 |
<<: 2022年ワールドカップ、審判の補助に人工知能を導入
自宅の高齢者が階段を降りる途中で誤って転倒したり、地域でいたずらっ子が走り回ってトラブルを起こしたり...
1997年、IBMが開発したディープ・ブルーがロシアのチェス名人ガルリ・カスパロフに勝利し、人工知能...
世界的なスマート アプリケーション市場の成長は、高度なコンピューティングおよび分析テクノロジによって...
デジタル時代において、データは音楽業界が音楽を制作し、配信し、聴衆とつながる方法において強力な指揮者...
[[247418]]人工知能の分野における成果は、誤解されやすく、過大評価されやすい。このことは、人...
ちょうど今、サム・アルトマンがXで衝撃的なニュースを発表しました—— ChatGPT Plusアカウ...
オフィスワーカーにとって、大都市では 2 種類の交通手段があります。 彼らは日中は仕事に行くことも、...
簡単に言えば、機械学習とは「明示的にプログラムされなくても学習する(コンピュータの)能力」です。機械...
マット・アセイ企画 | ヤン・ジェン制作:51CTO テクノロジースタック(WeChat ID:bl...
著者 | 崔昊レビュー | Chonglouまとめこの論文では、大規模な言語モデルと LangCha...
ハイテクノロジーの発展により、ロボットは映画に登場するものではなく、現実のものとなりました。人工知能...