最近、ChatGPT はインターネット ユーザーの質問に、英語、フランス語、スペイン語で意味不明の文章で応答しました。その理由が今では分かりました。
それでおしまい、チャットGPTもはや、違法薬物を摂取した人と話しているような印象は与えられません。数日間、AI に簡単な質問でも質問すると、まったく意味のない答え。証言の大部分はアングロサクソン諸国からのものでしたが、それだけではありません。チャットボットが決定しなかった場合、スペイン語またはフランス語は免れられませんでした。言語を変更する2 つの文の間で日本語または韓国語を交互に切り替えます。
場合によっては、応答は何の意味も持たない一連の文の形式をとりました。各単語が異なる色で強調表示されました。超現実的な行動OpenAIChatGPT の親会社である は、これを改善するために分析を急いでいます。
原因が判明し、その原因は次のとおりですAIが言葉を選ぶ方法。一般的に言えば、リクエストとそのコンテキストを事前に調査します。期待される応答を形成する可能性が最も高いと思われる単語を選択してください。そこで、彼女はすべてを少し混ぜ合わせました。
「ユーザー エクスペリエンスの最適化により、モデルが言語を処理する方法にバグが導入されました。 LLM は、部分的に確率に基づいて単語をランダムにサンプリングすることによって回答を生成します。彼らの「言語」はトークンに対応する数字で構成されています[英語のトークン、編集者注]。この場合、バグはモデルがこれらの数値を選択するステップに存在していました。翻訳ミスと同じように、モデルがわずかに間違った数値を選択したため、意味のない単語が連続してしまいました"、 説明するOpenAI。
こちらもお読みください –ChatGPT は知識を更新しますが、すべての人に適しているわけではありません
技術レベルでは、同社は次のように指定しています。特定の GPU 構成で使用すると、推論カーネルが誤った結果を生成する”。まだ修正がデプロイされましたそしてそれ事件は解決したとみなされます。しかし、現時点ではチャットボットにはかなり顕著な問題がいくつかあるようです。たとえば、私たちは次のように考えます。ジェミニの不正確さの歴史それがGoogleを後押しした画像生成を一時停止する間違っているところを正す時が来ました。