AppleはiPhone、iPad、iCloudをスキャンして児童ポルノを検出する予定だ。具体的には、カリフォルニアの大手企業は、アルゴリズムを使用して子供に対する性的虐待の兆候を検出する予定です。プライバシー擁護派の多くは、この新機能が本来の目的から逸れるのではないかと懸念している。
今週木曜日、2021 年 8 月 5 日、Apple は、児童ポルノ動画の拡散を阻止することを目的とした多数の新機能を発表しました。iOS15。クパチーノの同社は今後、米国にある同社のiPhone、iPad、iCloudサーバー上で子供が関与する性的画像を検出する予定だ。
iCloud に保存された写真や iMessage で交換された写真はアルゴリズムによって分析されます。これらのアルゴリズムは比較します画像の一意のデジタル署名データベースに含まれる小児性愛者の写真のデジタル署名を使用します。 Apple はシステムを強化するために、国立行方不明児童搾取センター (NCMEC) から提供された写真を利用する予定です。
こちらもお読みください:iOS 15 は写真から迷光効果を自動的に削除します
エドワード・スノーデン氏、iOS 15の新たな措置を批判
署名が一致すると、写真にマークが付けられます。アカウントがフラグ付きスナップの一定のしきい値を超えると、アルゴリズムが写真にアクセスして、好ましくないコンテンツがないかチェックします。従業員は画像を見ることができます。違法なコンテンツがあった場合、アカウントは当局に報告されます。
同様に、Apple は家族向けのサブスクリプションにリンクされた子供のアカウントによって交換される画像を監視する予定です。子供が性的な画像を送信すると、iOS から警告が届きます。 Apple はまた、以下の権利を留保します。両親に通知する。 「私たちは、コミュニケーション ツールを使用して子供たちを勧誘し搾取する犯罪者から子供たちを守り、児童ポルノ コンテンツの拡散を制限したいと考えています。Appleはプレスリリースでこう説明している。
これらの措置は批判の集中を引き起こした。多くのプライバシー擁護者にとって、Apple は賞賛に値する意図にもかかわらず、行き過ぎています。 「Appleはエンドツーエンドの暗号化メッセージングシステムを監視・検閲インフラに置き換えようとしているが、これは米国だけでなく世界中で悪用や不正行為の危険にさらされることになる。民主技術センター(CDT)は遺憾の意を表します。
CDT に関しては、Apple は意図的にiPhone へのバックドア。「Apple が画像をスキャンして iMessage に取り込むことを可能にするメカニズムは、バックドアの代替ではなく、バックドアです。通信の一方の側でのクライアント側の分析は送信のセキュリティを破り、通信の内容を第三者 (親) に知らせることはプライバシーを侵害します。」、生物に取り組みます。
彼としては、内部告発者エドワード・スノーデンAppleが導入したシステムが最終的には他の目的に悪用されるのではないかと懸念している。「どれほど善意の意図があったとしても、Apple は世界中で大規模な監視を展開しています。誤解しないでください。今日児童ポルノを検索できれば、明日は何でも検索できるのです。」、スノーデンと一緒に。
どんなに善意があっても、@りんごこれにより、大規模な監視が全世界に展開されます。誤解しないでください。今日児童ポルノをスキャンできれば、明日はどんなものでもスキャンできるでしょう。
彼らは、*何も尋ねることなく*、数兆ドルのデバイスを iNarc に変えました。https://t.co/wIMWijIjJk
— エドワード・スノーデン (@Snowden)2021年8月6日