Apple、物議を醸している児童ポルノ対策システムの痕跡をすべて削除

2021年8月に初めて発表されたが、Appleは現在、児童ポルノ検出システム(CSAM)の痕跡をすべて消去しようとしている。実際、Apple ブランドは Web サイトからこの機能に関する言及を削除しました。ただし、クパチーノの会社は、いくつかの変更を加えた後、このシステムをすぐに発売する予定です。

クレジット: Pixabay

2021年8月には、Apple、児童ポルノとの戦いに関する新たな措置を発表。実際、クパチーノの会社は、児童ポルノ素材 (画像とビデオ) を検出できる機能を統合する予定です。CSAM米国では。

これを行うために、システムはいくつかのアルゴリズムを使用して分析します。iCloud または iMessage に含まれる画像の一意のデジタル署名。その後、データベースに記録されている何百万もの児童ポルノ画像のデジタル署名と比較されます。行方不明児童および搾取児童のための国立センター。

理論上は、Apple の意図は依然として称賛に値します。しかし、この措置はすぐに多くのプライバシー擁護者や内部告発者からの敵意に直面しました。エドワード・スノーデン。彼の目には、この機能が転用されて「監視と検閲のインフラ」。

一般的な抗議に直面して、Apple は次のことを決定しました。追って通知があるまでこの機能の展開を一時停止します。しかし、私たちの同僚は、ザ・ヴァージメーカーがアップデートしたばかりであることが分かりました子供の安全機能に関するウェブページ

確かに、Apple ブランドは、この物議を醸す機能に関する言及をすべて削除しました。 CSAM 検出システムへの言及は消えています。それにもかかわらず、Appleは、デバイスを埋め込んでいるわけではないことを指摘したいと考えている:「人々の意見に基づいて、私たちはこれらの非常に重要な子供の安全機能を導入する前に、今後数か月かけて情報を収集し、改善を図ることに決定しました。」とブランドの広報担当者がアメリカのメディアに断言した。

CSAM 検出機能を忘れてしまった場合、Apple は 2021 年 8 月に発表された、末っ子の保護に特化した 2 つの機能を展開していることに注意してください。iOS15.2未成年者が親密な写真を受信または送信すると、Apple から通知が届きます。この件に関して、Apple は保護者に警告することも考えましたが、最終的にメーカーは考えを変えました。 2 番目の機能は、Siri、Spotlight、または Safari 検索を介して児童搾取に関連する検索が行われたときに追加情報を提供します。