ソニーの AI 倫理部門が実施した調査では、人工知能が顔認識や架空の顔を作成する際に、肌の色を考慮していないことがわかりました。

顔認識の利用が増えている'人工知能。注ぐ地下鉄で詐欺師を監視するまたはユーロスターに乗る前に列を終了してください例えば。これを達成するには、アルゴリズムをトレーニングする必要があるもちろん。彼らは何百万もの顔を分析し、完全に識別する方法を学びます。このシステムは完璧ではなく、かなり重大な司法上の誤りにつながる。
2018 年の研究で次のことが明らかになりました。肌の色が濃い人には認識効果が低かった。これにより、次のようないくつかの企業が変化しました。グーグルまたはメタ、エリス・モンクのより包括的な参照枠を採用しました。ソニーしかし、偏見が残っていると信じています。彼の部門の研究AI倫理それを示しています黄色がかった肌の色はAIによってほとんど無視されます、方向に向かう色合いを支持します。ルージュ。
研究者らは、次の方法でこれを解決することを提案しています。肌の色分析を自動化するそれを 2 つの異なるスケールに配置することによって、明るいものから暗いものまでそしてのほとんどが黄色からほとんどが赤へ。プログラムは肌を示す画像のピクセルを分離し、その RGB 値 (赤、緑、青) をリポジトリで使用されるコードに変換します。CIELAB最も関連性が高いと考えられ、平均値が計算されます。とりわけ Google が使用するスケールの作成者である Ellis Monk にとって、これは人間の分析彼によれば、偏見をなくすことが重要だそうです。
最終的な解決策を選択するだけでなく、一部の企業はすでにソニーの調査結果を検討すると宣言している。その意味は、監視目的の顔認識にとどまりません。AI写真作成、私笑顔の識別そしてさらに写真トリミングツール。ソニーのAI倫理部門責任者のアリス・シャン氏は、次のことに疑いの余地を持っていない。アルゴリズムトレーニングシステムを改善するそれは必然的に終わりのない仕事です。 「私たちは進歩するために努力し続けなければなりません」と彼女は結論付けました。
ソース :有線