Microsoft の人工知能がインターネット ユーザーと接触すると人種差別的になる場合

水曜日の朝、マイクロソフトが開発した人工知能がツイートスフィアに着陸した。テイという名前の女性は、インターネット ユーザーによって人種差別的で女性蔑視のティーンエイジャーに変えられながらも、なんとか生き延びたのは 1 日だけでした。

当初、テイは人々とチャットし、楽しませるようにプログラムされていました。 Microsoft によれば、「Tay と話せば話すほど、彼女は賢くなる」がこのプロジェクトの基本コンセプトでした。この経験は決定的なものではありませんでした。

数時間後、インターネット ユーザーからの多くの疑わしい主張の後、AI は人種差別から女性蔑視、歴史問題に至るまで、奇妙な発言をツイートし始めました。

テイは、オンラインで人々と話し、尋ねられるかもしれない質問を記録して理解することで学ぶことを目指しました。こうすることで、彼女は自分の経験に基づいて自分の反応を適応させることができました。

人種差別的および女性蔑視的なコメント

彼に言われたことすべてを吸収するこの能力は、対話者によって非常にすぐに理解され、多かれ少なかれ適切なアイデアによるブレインストーミングの旋風を引き起こしました。テイは話すことで学ぶようにプログラムされている彼女は提示されたすべてのアイデアを検討し始め、それを普通のものとして書き写しました。

暴力的なツイートの中には、「9月11日の責任はブッシュにある」や「ヒトラーは何も悪いことはしていない」などのものが見られます。

テイの逃亡から16時間後、マイクロソフトは一時停止した後者は、問題のあるメッセージを削除した後、「何らかの調整」を行うためのものです。

「テイは人間との対話を通じて学習する機械です。 「これは社会的、文化的、技術的な実験です[...] 残念ながら、テイさんの才能を悪用して彼女に不適切な反応をさせようとする組織的な取り組みが発見されました」とマイクロソフトは述べた。ル・フィガロ

なる前にメンテナンスまたは永久に無効化、AIは別れのツイートを残しました:

cu そろそろ人類は睡眠が必要になってきたので、今日はたくさんの会話がありますね?

— TayTweets (@TayandYou) 2016 年 3 月 24 日

この人工知能の可能性は否定できませんが、その非常に急速な学習は抑制されなければなりません。 Microsoft が将来、新たな種類の滑りを避けるために適切なセキュリティを導入する必要があることは確かです。

これは、人工知能の機能に焦点を当てた今年 2 回目の大きなイベントですが、確かに、以前よりもはるかに楽しいものではありません。AlphaGo AI が囲碁チャンピオン イ・セドルを破る, しかし研究は続けられています。

JARVIS はまだ今日の段階ではありませんが、Cortana に約束を守らせる機能など、AI への改良がどんどん登場しており、私たちは正しい方向に進んでいます。