ChatGPT がユーザーのパスワードを再び漏洩、多くのことを始めている

ChatGPT は、最初のリークからわずか数か月後に新たなリークの被害者になりました。今回、白昼堂々パスワードが公開されるのを目の当たりにするのは、製薬会社のチャットボットのユーザーです。問題の企業とは何の関係もない別のインターネット ユーザーが、実際にこの機密情報を入手することに成功しました。

2023 年 3 月 1 日、ChatGPT に大規模なデータ漏洩が発生。特定のユーザーから数時間にわたる多数の会話履歴が入手可能であり、それらのユーザーとはつながりのないインターネット ユーザーからのものでした。この漏洩は非常に重大だったので、OpenAI は問題が解決されるまで AI へのアクセスを遮断せざるを得ませんでした。それ以来、ChatGPT は比較的安全になっています。しかし、明らかに、チャットボットに機密情報を提供することは依然として非常に危険です。

実際、Ars Technica の同僚は、読者の 1 人から警告メッセージを受け取りました。その中で、彼は製薬会社の顧客の ID とパスワードにアクセスしたことを明らかにしました。インターネット ユーザーは、ChatGPT に基づくチャットボットの複数のユーザーのログイン情報、特にチャットボットのバグに続いてサポートを求めている顧客のログイン情報を取得することに成功しました。

同じテーマについて —ChatGPT はすべてを変えるこの機能で Google アシスタントを正面から攻撃します

最も奇妙なのは、ユーザーが明らかにChatGPTに自分の情報を提供するよう求めていないことです。「私はリクエストをしました(この場合、パレット内の色の賢い名前を見つけるのを手伝ってください)。そして、しばらくして戻ってきたとき、追加の会話に遭遇しました。」、彼はArs Technicaに証言し、その後、識別子が彼の会話履歴に自動的に表示されたと述べました。

さらに悪いことに、ChatGPT は、クリックするとさらに多くのユーザー名とパスワードにアクセスできる URL をユーザーに提供していました。 AI はそこで終わりませんでした。また、影響を受けた企業からの機密文書の名前、現在の調査の対象、および内部プロジェクトのコードも明らかになりました。 OpenAIが漏洩によって警告を受けたかどうかはまだ不明です。疑わしい場合は、現時点ではチャットボットに個人情報を提供しないようにしてください。

ソース :アルス テクニカ