インスタグラム、メッセージ内の裸の写真をブロック、PMの変態に別れを告げる

Instagramは、新しいツールを開発することでオンラインのセクハラと闘いたいと考えている。後者は、プライベートメッセージで送信されたヌード写真を自動的に検出してブロックしたいと考えています。特に女性にとって、ネットワーク上での安全なナビゲーションを可能にするのに十分です。

オンライン嫌がらせは、多くの女性にとって、受信箱が性的な写真を含む一方的な写真でいっぱいになるという問題です。インスタグラムが目指しているのは、問題を食い止めるためのツールを作成します。

開発者の Alessandro Paluzzi は、アプリケーション コードの興味深い詳細を発見しました。性的なメッセージを自動的にブロックする。写真を分析する AI を使用してすべてが機能します。

Instagramはオンライン嫌がらせと闘いたい

このツールは、理論的には、オンラインのセクハラと戦うための完璧なツールです。写真がプライベートメッセージとして送信されると、AIによって分析され、ヌード写真かどうかが判断されます。もしそうなら、写真は送られてきましたが、ぼやけています。ユーザーはぼかしを解除するかどうかを選択できます。重要な説明: Instagram は写真を分析しますが、それらにアクセスすることはできません。

The Vergeのコラムでは、Metaそのような機能に取り組んでいることを確認しました:

私たちは専門家と緊密に連携して、これらの新しいオプションでユーザーのプライバシーを保護しながら、受信するメッセージを完全に制御できるように取り組んでいます。」

こちらもお読みください –インスタグラム、子供のデータ漏洩で4億500万ユーロの罰金

したがって、現時点では、この機能はまだ開発中です。彼女ならできた何ヶ月もオンラインに到着しません。しかし、Meta がこれらのデリケートなテーマに対して行動を起こし始めているのを見るのは、すでに心強いことです。このアメリカの企業は長らくこの分野での無策が指摘されており、プライベートメッセージに関してはインスタグラムをまさにジャングルにしている。

このソーシャル ネットワークはすでに数週間前にユーザーの保護に関して一歩前進しました。機密コンテンツを 16 歳未満のユーザーに対して自動的に非表示にします。したがって、性的な性質のプライベートメッセージをブロックすることが次のステップになります。

https://twitter.com/alex193a/status/1571924946183397377

ソース :ザ・ヴァージ