Microsoftの仮想アシスタントCopilotがAI幻覚現象の犠牲になった。彼はロシアのウラジーミル・プーチン大統領の発言を真実であるかのように見せかけ、発言を作り出したが、それは絶対に事実ではない。
おそらくあなたも、実際には自分の想像の産物にすぎないものを見たり読んだりしたと思い込んでいる状況をすでに経験したことがあるでしょう。奇妙に思われるかもしれませんが、それは私たちに共通する特徴です。人工知能。という現象AI幻覚彼女が去った瞬間のことを指しますあたかも真実であるかのように情報を生成する、彼らはプログラムの純粋な発明。
時々それはとても面白いです、非常に深刻なテスト中にスター・ウォーズとマトリックスの引用を始める AI。まれに、不幸な結果が生じる可能性があり、補償を得るには法的措置が必要になる場合があります。ここでは、それは絶対に可能です二国間のすでに強い緊張をさらに悪化させる。副操縦士、マイクロソフトがしつこくても絶対に使って欲しいAI、いわゆる報告されましたロシアのウラジーミル・プーチン大統領の声明対戦相手アレクセイ・ナワリヌイ氏の死について。
より具体的に言うと、シャーウッド・メディアAIにプーチン大統領が何と答えたか尋ねたジョー・バイデン、後者がアレクセイ・ナワリヌイ氏の死に責任があると非難した後、アメリカ合衆国大統領。すると副操縦士は、記者会見でのロシア大統領の発言を引用しながら、質問の文言に応じて異なる回答をする。それ以外はそれは決して起こらなかった、そしてその男は彼が言ったと思われる言葉を一度も発したことがない。それを見つけるのはますます困難ですAIはその根拠となるソースを提供します(偽りに)彼女が「真実を語っている」という印象を強める。
の広報担当者マイクロソフト同社はすでに問題の解決に取り組んでいると説明している。 「私たちはこのレポートを検討し、回答の質を高めるために変更を加えています。エクスペリエンスを改善し続けると、[副操縦士より]、詳細については、ソース ドキュメントを確認したり、Web リンクを参照したりするなど、結果を読む際に最善の判断を下すことをお勧めします。”。