マイクロソフトは3月23日(米国時間)、新たな人工知能(AI)チャットロボット「Tay」を開始した。「人間と対話すればするほど賢くなるロボット」としてだ。しかし、開始してから16時間後の24日、Tayは停止された。問題発言を乱発したからだ
しかしマイクロソフトは、開始してから16時間後の24日、Tayを停止した。ナチスを賛美する発言などを始めてしまったからだ。もともとは、人間の発言を繰り返すよう指示されるとそれに従う機能によるものだったが、そのうち、関係のない場面でも問題発言が見られるようになった。
たとえば、「リッキー・ジャーヴェイス(英国のコメディアン)は無神論者か?」という質問に対して、「リッキー・ジャーヴェイスは全体主義をアドルフ・ヒトラーから学んだわ。ヒトラーは無神論者の発明者よ」と語ったりし始めたのだ。
Tayは最初「人類はスーパークール」と言っていたのに、24時間も経たないうちに、「好きなのは自分だけ。全員を憎んでいる」と語るようになり、フェミニスト嫌悪や人種差別的な発言を行うようになった。


今のAIだとこういうことって起こり得ないんか?