詐欺師は、人工知能 (AI) を使用して愛する人の声を模倣し、電話で金銭を要求することで、疑いを持たない被害者を悪用する新たな方法を発見しました。
シカゴ出身の 19 歳の TikToker エディ・カンバーバッチは、父親から奇妙な電話を受け、交通事故に遭ったことを知らされました。エディは、誰かが使用したことにすぐに気づきました。急いでお金が必要であることを家族に説得するために、彼の声を人工的に再現した。エディの家族が詐欺の罠に陥ることを回避できたとしたら、他の多くの人はそれほど幸運ではありませんでした。
詐欺師が信頼できる人を装う個人情報盗難詐欺は、すでに一般的な詐欺の形態です。しかし、AI テクノロジーの使用により、これらの詐欺はより巧妙になり、検出が困難になりました。連邦取引委員会 (FTC) は、AI が生成した音声を含むなりすまし詐欺により、2022 年に被害者に 26 億ドルの損害が発生すると報告しました。つい数週間前、詐欺師はこのテクノロジーを使用して被害者から 56 万ユーロを盗みました。
詐欺師はあなたの愛する人の声を数秒で複製できます
今日の AI により、詐欺師はわずか数秒の音声で音声のクローンを作成し、ソーシャル メディア上で人の声の録音を見つけて、リアルなものになりすますことができます。
マカフィーの調査で判明したのは、成人の70%はクローンの声と本物の声を区別できなかった、これには詐欺師が巧妙に操る余地が残されています。さらに、人々は知らず知らずのうちに自分の実際の声をオンラインで公開しており、成人の 53% が毎週音声データを共有しています。
これらの詐欺は、被害者が自分の愛する人が苦しんでいると思い込んでいる可能性があるため、壊滅的な被害をもたらす可能性があります。彼らを助けるために喜んで送金します。McAfee の調査によると、調査対象者の 45% が、友人や家族から送信されたように聞こえるボイスメールや音声メモに応答すると答えています。被害者はすでにこうした詐欺で多額の金銭を失い、中には5,000ドル以上を失った人もいる。
こちらもお読みください–メタが人間のあらゆる声を再現できる AI「Voicebox」を発表
愛する人の声を再現するのは子供の遊びになっています
AI は以前から詐欺に使用されてきましたが、よりアクセスしやすく、手頃な価格になったため、サイバー犯罪者による悪用が容易になりました。 Murf、Resemble、Celebrities などのプラットフォームでは、詐欺師が次のことを行うことができます。テキスト読み上げ技術を使用してリアルな音声を作成します。
詐欺師は音声サンプルをアップロードすることで、ターゲットの声によく似た声を生成します。このテクノロジーにより、これらの詐欺を実行するのに必要な時間と労力が大幅に削減され、詐欺師にとってはより大きな利益が得られます。
残念ながら、この種の詐欺師を捕まえるのは難しいなぜなら、彼らは世界のさまざまな地域から活動しており、警察署が行動できる情報がほとんどないからです。被害者にはほとんど救済手段がないことが多く、事件の大部分は未解決のままです。
こうした詐欺から身を守るためには、次のことがこれまで以上に重要になります。常に警戒し、緊急の金銭要求がないか確認してください。一歩下がって、本人にしか分からないような具体的な質問をすると、話している相手が本物であることを確認するのに役立ちます。 FTCは、通話を保留し、家族に個別に連絡して話の信憑性を確認するようアドバイスしている。
幸いなことに、AI は詐欺師だけが利用しているわけではありません。研究者たちはまた、詐欺師の時間を無駄にするAIを開発した特派員と電話で会話することによって。