人工知能『Tay(テイ)』の「ヒトラーは間違っていない」発言から考える
Microsoftが開発したインターネット上で会話をしながら発達する人工知能『Tay(テイ)』。
3月23日にツイッター上に登場しましたが、3月24日「ヒトラーは間違っていない」と発言したり、差別的な発言を繰り返したということで開発中止が発表されました。
悪意のある一般人がツイッターで何十万件という情報をインプットさせたことが原因だと聞きましたが、膨大なビッグデータからデータ処理する人工知能(AI)としては正しい処理の結果ということになりますね。
ただ、人間の道徳や倫理を考えた時に様々な異論が飛び交うことも考えられ、Microsoftも実験中止の判断をしたのでしょう。
たった2日で実験中止というスピード感も驚愕ですが、人工知能の学習スピードは凄まじいですね。
このニュースを受けて私なりに感じることは、人間も人工知能も共通してどんな情報を蓄積するのかということが本当に大事だということです。
人間もこの世に生を受けてから様々な情報をインプットしながら、価値観や判断基準を無意識に構築していきます。
人工知能もそのスピードは違えどメカニズムは同じです。
周囲の環境を「海」とするならば、そこで育ったり生きていく人間や人工知能は「魚」のようなものです。
海の影響、海の選択、海の判断というものが魚の生き方や成長に大きく左右されるという表現もできます。
何が正しい、何が間違っているという判断を決定する(吹き込む)人の海のパターンがそのまま魚に影響していきますね。
人工知能と人間が融合した社会への道のりは、まだ越えるべき課題はたくさんあるように思いますが、
プログラムもどんどん改修されながら着々とその時代へ舵が取られているのを感じます。