ヒトラーほめる人工知能、米MSがわずか2日で実験中止 ツイッターでの”実地訓練”裏目 - 産経ニュース(2016年3月25日)

http://www.sankei.com/economy/news/160325/ecn1603250022-n1.html
http://megalodon.jp/2016-0325-1006-47/www.sankei.com/economy/news/160325/ecn1603250022-n1.html

米IT大手のマイクロソフト(MS)は24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に登場した。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。
マイクロソフトの広報担当者はAIを修正すると説明した。修正を終え次第、実験を再開するとみられる。
マイクロソフトなどIT大手は端末の音声検索機能などを向上させるため、利用者とのやりとりから学ぶ人工知能の開発を競い合っている。(共同)

関連サイト)
Microsoft人工知能が「クソフェミニストは地獄で焼かれろ」「ヒトラーは正しかった」など問題発言連発で炎上し活動停止 - GIGAZINE(2016年3月25日)
http://gigazine.net/news/20160325-tay-microsoft-flaming-twitter/