彼は診断を求めるために自分の子供の裸の写真を医師に送り、グーグルは彼のアカウントをブロックした

幼い子供が感染症にかかったのではないかと心配した父親は、写真を医師に送った。 2日後、Googleは児童ポルノ画像の所持と共有に対する闘いの一環として、彼のアカウントをブロックし、警察に通報した。

クレジット: Arkan Perdana (Unsplash 経由)

人工知能の限界。からの記事ニューヨークタイムズGoogle の AI は特定の状況では少々激しすぎ、児童ポルノではない状況を児童ポルノとして同化してしまうと報告しています。父親は、子供の股間の感染症の写真を撮り、医師に送るために代金を支払った。

Google は、写真の内容が利用規約に違反しており、違法である可能性があると判断しました。その結果、アメリカ企業は、閉鎖されたGoogleアカウント関係するユーザーを逮捕し、当局に通報したことで、彼に対する警察の捜査が開始された。

児童ポルノとの戦いがAIの解釈上の問題を引き起こす

このケースでは、医師が写真を分析できるように、ビデオ診察の前に写真を送るよう父親に依頼したのは看護師でした。事実は2021年2月に遡り、米国の一部の医療行為が新型コロナウイルス感染症の影響で身体診察を受け付けなくなった。写真が撮影されてから 2 日後、その人物は Google からアカウントがロックされたという通知を受け取りました。したがって、彼は電子メール、連絡先、写真にアクセスできなくなった…そして彼の電話番号さえも。なぜなら彼は米国限定の仮想携帯電話会社サービスである Google Fi の顧客だったからです。

警察の捜査は数カ月後にそのユーザーが犯罪を犯していないと結論づけたが、間違いの被害者は捜査官にGoogleに保存されている自分のデータとコンテンツのすべてにアクセスさせることを決意しなければならなかった。違法コンテンツを検出するために GAFAM が導入した監視システムは、プライバシー擁護者から強く批判されています。最近、Apple、物議を醸した児童ポルノ防止システムを廃止以前に変更を行うことが発表されました。

ソース :ニューヨーク・タイムズ