性悪説じゃん
- 2016/03/25(Fri) -
2016.03.25 神戸新聞NEXTより抜粋
 
 【ニューヨーク共同】米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
 同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に登場した。ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。
 マイクロソフトの広報担当者はAIを修正すると説明した。修正を終え次第、実験を再開するとみられる。

                                  
  それって、
  「無垢な魂を ツイッターに放り込んだら こうなりました」 ってことかしら?

  修正すべきは AIなの?

 修正せずに繰り返し 実験し 統計をとってみたら?
 
 「無垢な魂を ツイッターに放り込んだら どうなるか」 って実験。

 恐いけど。

 
この記事のURL | ひとりごと | ▲ top
| メイン |