- フォンアンドロイド.com
- ニュース
- インターネット
- ChatGPT、吟遊詩人: Google は従業員にチャットボット上で機密情報を共有しないよう呼びかけています
Googleの親会社であるAlphabetグループは、ChatGPT-4やBardなどのチャットボットを使用する際には警戒するよう従業員に呼び掛けている。何のために ? AI が機密情報を回復して共有するのを恐れるためです。
AI 競争に参加している大多数の企業と同様に、Google も慎重に行動したいと考えています。ウェブ大手の親会社であるアルファベットと同じだ。
私たちの同僚が共有したレポートによると、ロイター、このグループは従業員に対し、チャットボットを使用する際には一定の警戒を払うよう呼びかけています。チャットGPT-4そしてさらにGoogle の会話型 AI、Bard。より具体的には、Alphabet は協力者を次のように招待しています。これらの AI と対話する際には機密情報を使用しないでください。
アルファベット(Google)はチャットボットの漏洩を恐れている
これらの AI が機械学習を活用して時間の経過とともに改善するという点で、Alphabet の懸念は非常に正当です。実際、彼らの行動を止めるものは何もありません機密データを複製して共有する以前の会話中に収集したであろう情報。
さらに、グループはエンジニアに次のことも求めました。Bard のベースとなるコンピューター コードをチャットボット内で直接使用しないでください。。この場合も、チャットボットのセキュリティを危険にさらす可能性のある漏洩を回避することが目的です。公開されているチャットボットの使用について従業員に警告している企業は Google だけではないことに注意してください。サムスン、アップル、アマゾンなどの大手ハイテク企業数社も安全策を確立している。
こちらもお読みください:Google、欧州でのBard AIの発売延期を余儀なくされる、その理由はここにある
多くの専門家がリスクを気にせずにチャットボットを使用しています
プロフェッショナルソーシャルネットワークFishbowlが2021年1月に発表した研究で証明されているように、これらの対策は必要です。 12,000人を対象としたこの調査によると、調査対象となった専門家の 43% がパブリック チャットボットを使用したことがある上司に知らせずに任務の一環として。
ChatGPT-4 やその他の会話型 AI は、電子メールやソフトウェアを含む複雑な文書を作成する能力を完全に備えていることがわかっています。したがって、それらが多くの専門家の仕事を容易にする素晴らしいツールであると主張する場合、生成されたコンテンツには、誤った情報、機密情報、または保護された情報が含まれている可能性があります。
6 月 1 日の時点で、Google は従業員と共有したメモの中で次のように述べています。Bard との会話には機密情報や機密情報を含めないでください。」Cloudflare の CEO、Matthew Prince 氏の意見では、パブリック チャットボットに機密データを入力することは、「あなたの個人的なファイルはすべて多数の博士課程の学生に預けてください。」良いまとめですね。