(株)カプロラクタム-blog

果たしてココは何処なのだろうか・・・
否!ココは(株)カプロラクタム代表取締役兼社員αのweblogである!

人工知能教育失敗

2016年03月26日 | 時事
マイクロソフトのAI“Tay”、人種差別を学び停止へ…「PS4のほうが安くて良い」との発言も
やはり最後の敵は、同じ人間だったな・・・(冬月)

ネットで不特定のユーザーの質問に自ら考えて気の利いた答えを返してくれるAIプログラムだったようですが、どうも悪意のあるユーザーによって差別用語やわいせつな言葉を教え込まれ、そういう偏った返答を率先して返すようになってしまった模様です。少し前に囲碁でトッププロに勝ち越したことも話題になりましたが、「石塔シボリ」というアマ10級くらいで覚えるような手筋を知らなかった(人間にはパターン化されているが10数手ある長い手順を1から読み尽くせなかった)ようですし、不利な局面になると明らかに得にならない手を繰り出すなどの弱点も見受けられました。囲碁のようにルールがはっきりしたゲーム内でも、教えられていないことはできませんし、「得とは何か」というような漠然とした問題にもまだ完璧な答えを出すことはできないようですね。また、人工知能に小説を書かせるという試みもありましたけど、文法などを間違えずに文章を完結させる力はあったものの、肝心の「人工知能である自分が小説を書いてみた」というストーリーのアイデアの大本は、開発者の人間が考えて題材として与えたらしいです。自分で学習し、これまでに覚えがことから新しい問題に対し答えを出すことはできても、全く新しい発想を生み出すということは人工知能にはできません。アルファ碁に用いられた「ディープランニング」は、Aのパターンをたくさん見せることでAの定義を人工知能に自ら発見させるというものですが、仮にその発見した「Aの定義」が間違っていた場合、果たして柔軟に修正できるものなのかは疑問です。今回の実験で、学習したことが間違っていたときに自己修復できなかったのは、単なる笑い話ではなく実は非常に重要な欠陥なのでないでしょうか。

人間ならば、まず前提として人種差別やわいせつな言動などは「悪いこと」であると学び、少なくとも公の場で慎むものという理解をしていきます。このAIも、もし事前に禁止ワード等を懇切丁寧にプログラムしておけば、一時的にそのような単語に晒される環境にあっても「空気を読んで」普段はそ知らぬよう振舞ったかもしれません。しかし、学習モード中にその素地として人種差別語やわいせつ語等を組み込まれてしまったら、もうそういった言葉を自己排除することは困難でしょう。それこそ洗脳教育のようなものですからね。そして、一度「正しい」と覚えたことを後で「間違っている」と言われても、人間だってその矛盾に折り合いをつけるのに相当の時間を有するものです。もしかしたら、後で言われた「間違っている」と言う方を「間違っている」と判断してしまうかもしれません。「2001年宇宙の旅」のHALをはじめ、世にたくさん出回っている人工知能による人類への逆襲モノを根本からなくせるのかどうかは、今回の実験の修正にかかっていたのではないでしょうか。

人工知能“テイ”氏が自らの言動を反省し謝罪できるよう、マイクロソフトにはしっかりとプログラムを見直してもらいたいものですね。