Google アシスタント、Siri、Alexa: シンプルな音楽でインテリジェント アシスタントをハッキングできる

Google アシスタント、Siri、Alexa、Cortana などが、単純な音楽を使用して簡単にハッキングされる可能性があることが、新しい研究で明らかになりました。研究者らによると、曲の中に聞こえない音声コマンドが隠されていると、ハッカーがスマートフォン、スマートスピーカー、ホームオートメーション機器など、接続されているすべてのデバイスを制御できる可能性があるという。

これは初めてではありません研究者らはインテリジェントアシスタントのセキュリティ上の欠陥を指摘している。中国の浙江大学のセキュリティ研究者チームによると、ハッカーは人間の耳には聞こえないコマンドを使用して私たちのデバイスに侵入する可能性があります。 「ドルフィン技術」と呼ばれるこの方法は、20 kHz を超える周波数帯域で最大 7.6 メートル以上離れた場所まで音声リクエストをブロードキャストすることで構成されています。

カリフォルニア大学バークレー校の二人の研究者、ニコラス・カルリーニ氏とデイビッド・ワグナー氏によると、ハッカーにとって、聞こえないコマンドを使用して音声アシスタントを制御する。オペラの録音に音声コマンドを隠すことで、彼らは、オペラに統合されたアシスタントであるAlexaを制御することに成功しました。Amazon Echo、間もなくフランスに到着

また、アシスタントが聞く文章が人間の耳で知覚される文章と異なる場合もあります。「コカインヌードル」たとえば、Google アシスタントを呼び出すことができます。Google アシスタントは、これを有名な「オーケー、グーグル」。研究者らは、特定のユーザーを Web サイトにリダイレクトし、特定のオプションを無効化し、他のコマンドを有効化することができました。

«私の仮説は、悪意のある人々がすでに人々にお金を払って私たちの活動を行っているということです。» ニコラス・カルリーニ氏は断言する。私たちはそれが可能であることを実証したかったのです» グーグル、アマゾン、アップルなどの企業に状況を是正するよう働きかけたいと研究者は説明する。

Cnet の同僚は、保証を得るために Amazon、Apple、Google に連絡しました。電子商取引の巨人は詳細にはかなりケチで、制限するためだと説明した。」当社が講じるセキュリティ対策に関して当社が開示する情報。」

Google 側としては、Google アシスタント ユーザーを提供していますVoice Matchを有効にする、可能にするオプション「d'ユーザーの音声を認識しない場合、アシスタントは購入や機密情報へのアクセスに関連するクエリに応答できなくなります。」

一方、Apple は研究の結論としてこの記事に反応することを望まなかった。現在、Google アシスタントや Siri に接続されている多くのデバイスのことを考えると、懸念するのは当然のことです。