FBIは今週初め、システムや機密情報へのアクセスを伴う技術職の面接でディープフェイク動画が使用されたという苦情が増えていると警告を発した。
FBIは火曜日、遠隔地での就職面接中にディープフェイク技術を利用して別人になりすます人が増えていると発表した。 FBIは声明の中で、以下に関する苦情の数が増えていると述べた。他人のビデオ、画像、録音を自分自身に重ね合わせる人テレワーク職の面接中。
知らない人のために説明すると、「ディープフェイク」とは、人工知能を活用したプログラムを使用して、人物のリアルな画像を作成することです。このテクノロジーは、たとえば、次のような用途に使用できます。人の顔を有名人の顔に置き換えるあるいは他人の声をクローンします。
こちらもお読みください – ディープフェイク: この AI を利用したポルノ サイトはますます多くのフォロワーを集めており、懸念されています
リモートでの就職面接が詐欺師の新たな標的に
FBI からの情報によると、詐欺師は被害者から盗んだ偽の文書と個人識別情報の両方を使用して、雇用主を騙して遠隔地での仕事に雇用させる。これらの在宅勤務の職種は、多くの場合、データベースやソフトウェアだけでなく、情報技術やコンピューター プログラミングに関連しています。
問題は、これらの役職の一部が、顧客の個人情報から財務データに至るまで、あらゆる種類のデータへのアクセスを許可していたことです。会社の機密情報。
今日はこうなります採用担当者にとって、自分が誰と取引しているのかを知ることがますます困難になっていますビデオインタビュー中に、いくつかのディープフェイク技術は非常に説得力があります。しかし、FBI は、特定の手がかりを探すことで詐欺を検出することが可能であると発表しました。 「これらのインタビュー中、カメラに映っているインタビュー中の人の動作や唇の動きは、話している人の音声と完全には一致していません。」とFBIは述べた。 「咳、くしゃみ、その他の聴覚動作などの動作が、視覚的に提示される動作と一致しない場合があります。」。幸いなことに、Facebook のような企業は現在、ディープフェイクを検出し、作成者を特定することも可能。
ソース :FBI