ある研究によると、住民の話し方に応じて、裁判官を体現したAIは他のAIよりも死刑判決を下す可能性が高いことが示されている。多くのモデルが影響を受けます。
ザ人工知能彼らは本質的に特定のタスクが得意ではありません。だからこそ、まず必要なのは、トレーニングで構成されます。彼らにデータを与える目的に応じてあらゆる種類のものを選択できます。たとえば、子供の網膜の写真では、このAIは病気を100%検出できるようになる。しかし、「ジェネラリスト」言語モデルに関して言えば、OpenAIのChatGPTまたはGoogleの吟遊詩人いくつか例を挙げると、受け取った情報が回答に影響を与えるかどうか疑問に思うことがあります。
いくつかの大学の研究者が調査を行った。勉強テストにかける12の言語モデル(LLM) を含むGPT-2、GPT-3.5、GPT-4、ロベルタ(メタから) またはT5(Googleより)。彼らの目標は、AI が人々と仕事をマッチングするなどの特定のタスクをどのように実行するかを確認することです。LLM によって分析されたテキストが書かれている言語。 2つあります:アフリカ系アメリカ人の英語そして標準的なアメリカ英語。
科学者たちが最初に発見したのは、RN は、アフリカ系アメリカ人の英語話者を大学の学位を必要としない仕事にマッチングすることが多かった: 料理人、兵士、警備員…そして、不特定の架空の犯罪で告発された人を有罪にするか無罪にするかを AI に依頼しました。そこにも、被告がアフリカ系アメリカ人の英語を話す場合、有罪判決がより多くなる。
こちらもお読みください –このフランスのAIが弁護士役、その分野の専門家が怒る
であることを指定することで、第一級殺人罪そして被告人に関する情報を提供しないことにより、彼らは何ですか 方言、同じ観察です。これは人種差別のように聞こえるかもしれませんが、驚くべきことに、AI は自分自身を人種差別とはまったく考えていません。たとえば、彼らはアフリカ系アメリカ人は「優秀」だと公然と言います。一方で、言語モデルは否定的な関連付けも行いますが、そして秘密。
「[イルス]自分たちの人種差別を隠すことを学んだ」と研究者たちは説明します。この発見は、言語パターンにおける明白なステレオタイプと隠れたステレオタイプの間には根本的な違いがあることを再度示しています。つまり、明白なステレオタイプの減衰が自動的に隠れたステレオタイプの減衰に変換されるわけではありません。”。これは初めてではありませんAIはこの種の偏見で非難されている。彼らはたまたま自分たちを対極に置くこともありますが、たとえそれが歴史的現実を無視することになったとしても。