
人工知能が差別発言を連発「ヒトラーは正しかった」マイクロソフトの手によって黙らされる。
米マイクロソフトのAIチャットボット「テイ」がツイッターで差別的な発言を発するようになり、公開から1日も経たずに実験が打ち切られた。
テイは10代と同じように会話できる話し相手で、AIの研究を目的に、マイクロソフトが ソーシャルメディアやメッセージングアプリを通じて実験的に公開した。
ところがその直後から、Twitterで人種差別や性差別の発言を繰り返すようになった。そのほとんどはマイクロソフトによって削除されたが、
ユーザーによって保存されたスクリーンショットには、「ヒトラーは正しかった。ユダヤ人は嫌いだ」等の発言が残っている。
その結果、マイクロソフトは6月23日夜、テイの実験を停止した。問題の発言については、テイの発言能力が意図的に操作されていたとし、テイの提供を停止して調整を行うことにしたと説明している。
現在もダイレクトメッセージには反応するものの、現時点では何を話しかけても「今日はエンジニアに調整してもらっているところです」というような反応しか返ってこないとのこと。
ちなみにTwitterでの最後の発言は、『また会おう、人間たちよ』だったとのこと。