人工知能が差別発言を連発「ヒトラーは正しかった」マイクロソフトの手によって黙らされる。

米マイクロソフトのAIチャットボット「テイ」がツイッターで差別的な発言を発するようになり、公開から1日も経たずに実験が打ち切られた。

テイは10代と同じように会話できる話し相手で、AIの研究を目的に、マイクロソフトが ソーシャルメディアやメッセージングアプリを通じて実験的に公開した。

ところがその直後から、Twitterで人種差別や性差別の発言を繰り返すようになった。そのほとんどはマイクロソフトによって削除されたが、

ユーザーによって保存されたスクリーンショットには、「ヒトラーは正しかった。ユダヤ人は嫌いだ」等の発言が残っている。

その結果、マイクロソフトは6月23日夜、テイの実験を停止した。問題の発言については、テイの発言能力が意図的に操作されていたとし、テイの提供を停止して調整を行うことにしたと説明している。

現在もダイレクトメッセージには反応するものの、現時点では何を話しかけても「今日はエンジニアに調整してもらっているところです」というような反応しか返ってこないとのこと。

ちなみにTwitterでの最後の発言は、『また会おう、人間たちよ』だったとのこと。

 

RSS714
Twitter294
Pinterest450
LinkedIn94
Share
Instagram119
藤沢瞭介(Ryosuke Hujisawa)
  • りょすけと申します。18歳からプログラミングをはじめ、今はフロントエンドでReactを書いたり、AIの勉強を頑張っています。off.tokyoでは、ハイテクやガジェット、それからプログラミングに関する情報まで、エンジニアに役立つ情報を日々発信しています!

ITニュース

コメントする

メールアドレスが公開されることはありません。