ChatGPTを訓練するためにデータを盗んだとして、OpenAIとMicrosoftに対して16人が告訴状を提出した。後者は、多くのインターネットユーザーが同意なしに機密データが使用されているのを目撃したとして、30億ドル以上の損害賠償を要求している。
ChatGPT の驚異的なパワーは、「OpenAI はどのように人工知能を訓練してこれほど正確な結果を取得したのか?」という疑問を引き起こすのに十分です。一部の人にとって、答えはこれ以上明確ではありません。同社は、実際の所有者に通知したり、この情報の作成者に料金を支払ったりすることなく、チャットボットにフィードするために膨大な量のデータを意図的に盗んだのです。
これは、今週水曜日、6 月 28 日、同社と Microsoft に対して苦情を申し立てた 16 人の主張です。Microsoft の Bing Chat ツールも GPT-4 に基づいています。「個人情報の購入と使用に関する確立された手順にもかかわらず、被告は窃盗という異なるアプローチを取った。」と訴状を説明する。両社は、ウェブ上の何百万もの記事に加えて、多くのインターネット ユーザーの個人データも使用しました。
同じテーマについて —この大学はChatGPTを使用した学生の宿題の添削を拒否しています
「彼らは、同意なしに取得した個人情報を含む、インターネット、書籍、記事、ウェブサイト、メッセージから 3,000 億語の単語を体系的に抽出しました。 OpenAI は、現行法で義務付けられているデータ ブローカーとしての登録を行わずに、これを秘密裏に実行しました。原告らは続けて、現在要求しているのは、損害賠償額は30億ドル。
同じテーマについて —ChatGPT、吟遊詩人: Google は従業員にチャットボット上で機密情報を共有しないよう呼びかけています
データからは、特定の趣味、政治的意見、性的指向、さらには宗教への所属に関する懸念が回収されました。原告らは、このデータの不正使用に加えて、両社が不正使用を行っていないとも非難している。「トレーニングモデルに十分なフィルタリングが施されていないため、何百万人もの人々がこの情報がインターネット上や世界中の見知らぬ人に漏洩する危険にさらされています。」
ソース :レジスター