Apple、児童ポルノ撲滅のためiCloudに保存された写真にアクセス

ラスベガスで開催されたCES中に、Appleはオンラインストレージサービス上の写真にアクセスできることを確認した。目的は、子供の性的搾取に関連する画像を検出することです。これを行うために、彼女は画像比較ソフトウェアを使用します。顧客の写真が陽性であると検出された場合、アカウントは閉鎖されます。この手順は、iCloud 利用規約の最近の変更に従っています。

Apple は、iCloud に保存されている顧客の写真にアクセスします。私たちはこの啓示のおかげでジェーン・ホーバス、Apple 最高プライバシー責任者。後者は、今週開催されるCESの機会にラスベガスで開催されたカンファレンスに参加した。クパチーノの会社を中傷する人々が憤慨しているのを私たちはすでに目にしている。なぜなら、クパチーノの会社は、例えばGoogleに対してであろうとFacebookに対してであろうと、データセキュリティや個人データの搾取の問題において白騎士のような役割をしばしば果たしてきたからである。

こちらもお読みください:Facebook の停止により、ソーシャル ネットワークが私たちの写真をどのように解釈しているかが明らかに

しかし今一度、判断力を鈍らせてみましょう。正式には、それは正当な理由があるからです。人工知能を訓練するためにサーバーに保存されている個人の写真を使用する他の企業とは異なり、Apple は不正使用を検出するために写真にアクセスします。より具体的には児童ポルノとの闘い

すべての写真の系統的な検出

技術的には、Apple はサーバーに送信されたすべての写真をスキャンし、子供の性的搾取に関連する写真を検出します。この手続きは、会社が特定していないソフトウェアを使用して実行されます。PhotoDNAに似ています。後者は Facebook、Twitter、Google によって使用されます。彼らはこれを使用して、類似点を示す写真を識別します。しかし、必ずしも同じ目的を持っているとは限りません。

こちらもお読みください:WhatsApp は大量の児童ポルノ コンテンツをホストしています

児童ポルノとの戦いの一環として、iCloud に保存された写真へのアクセスが問題となっている。2019年中の利用条件の更新。この用途での個人写真へのアクセスを明示的に制限するアップデート。これらの新たな条件では、児童の性的搾取に関連するコンテンツの使用が禁止されると説明されている。写真が検出された場合、関連付けられている Apple アカウントは直ちに閉鎖されます。 Appleは当局に情報を送信するかどうかを明らかにしていない。

ソース :テレグラフ紙