(AIの判断)
① ""AIはどこまで「判断」できるのか 安心なこと、不安なこと""
2018/12/06 07:49
AI(人工知能)がブームになっています。筆者は人工知能の専門家ではありませんが、意思決定という側面からAIについて考えてみます。
今後、人間のように考えて行動できるAIの開発が進めば、人間はさまざまな労働から解放されたり、より便利な生活を送ったりできると期待されています。その一方で、「AIは人間が行ってきた仕事を代わりに担うから、失業する人が増えるはず」と危惧する声もあがっています。
では、近い将来、高度な判断力を要する業務、つまり意思決定が必要な仕事もAIが行うようになるのでしょうか? AIは判断や決断といった役割をになえるのでしょうか?
●普及するのは特化型AI
AIは、用途にもとづいて「特化型AI」と「汎用型AI」の2種類に分けることができます。特化型AIは、自動運転技術や画像認識、将棋、チェスなど、特定の決まった作業を行うためのものです。現在実用化されているほとんどのAIがこれに該当します。
特化型AIの分野では、自動車の運転や書類のチェックなど、これまで人間が判断していた業務をAIに任せればよい時代が到来すると思われます。
そうした仕事の典型が銀行の融資業務です。融資の可否の判断がかなり複雑であっても、定められたルールと情報を入力すれば、本人確認も、融資の可能性も、人間がやるより確実に速く診断し、結果を導き出すわけですから、銀行の融資部門は近い将来、AIにとって代わられる可能性が高いでしょう。
一方、汎用型AIは、特定の作業・領域に限定せず、人間と同様かそれ以上の能力を発揮するものを指します。イメージとしては、自分で考えて自律して行動する生命に近いロボットのようなものです。
しかし、人間のように万能な汎用型AIは、今のところ実現が難しいと考えられています。そのため今後、実用化がさらに進んでいくのは特化型AIの分野でしょう。
●見逃せないAIの問題点とは?
しかし、現在のAIには3つ問題点があると思います。
1つは、大量の、しかもできれば正解付きのデータが必要なことです。金融やクレジットカード情報などビッグデータのある分野はAIの得意領域ですが、データが乏しい領域ではあまり機能しません。
例えば、特定の場面で人間にどういう感情が起こるかというデータは、感情を数学的にきちんと定義することができないので、存在しません。ウソ発見機のように血圧や心拍数の変化をとらえる程度では、100を超えるといわれる人間の複雑な感情をとらえられません。
2つ目は、AIは基本的に内挿(ないそう)的で、与えられたデータセットの内部での推論は得意ですが、データの範囲外の外挿(がいそう)になると、推論が正しいかどうかを恒常的に検証する必要が出てきます。
株価情報を大量にAIに入れて特定の銘柄の株価を予想させるとします。ここで得られる推論はかなりの精度で信用できるはずですが、リーマンショックのような突然の株価暴落のように、データそのものに構造的な変化が生じた場合、AI予測の信頼度は落ちるでしょう。株価のように推測の精度の検証が比較的容易ならばAIの有用性はゆるがないのですが、ゆるやかに構造変化していった場合、AIを使う人間は、AIの判断を信頼できるでしょうか。
3つ目は、ブラックボックス化です。人間の研究者がつくる統計モデルは、一見複雑に見えても、人間が解釈できるようかなり単純化しています。しかし、AIにはこのような制限がないために、極めて多数の変数からなり、グラフ化はおろか、イメージ化もできない理解不可能なモデルをつくる可能性があります。その場合、人間がAIの判断をそのまま信じてよいのかといった問題が出てきます。
しかも、あまりに構造が複雑になると、AIの推測が内挿的なのか外挿的なのかさえも分からなくなります。というわけで、最近はAIの説明可能性や解釈可能性が問題になってきていますが、その研究は始まったばかりです。
●AIと人間の「得意なこと・不得意なこと」
AI時代が到来すれば、AIの判断が人間の判断にとって代わる可能性は高まりますが、それでも人間の意思決定がなくなることはありません。なぜなら、 AIには、倫理的な判断や価値観(幸せ、好み)が絡む判断はできないからです
。
そもそも、AIを導入するかどうかを判断するのは人間です。AIを無条件に信頼するのも1つの意思決定でしょうが、合理性だけでは割り切れない倫理面など人間らしい意思決定の機会もAIに委ねてしまうことは、私たちの社会になじむでしょうか。
結局、価値観や周囲の社会状況を加えた判断は人間が行い、複雑で時間のかかる作業をAIに任せることになると思います。つまり、AIの意思決定結果を「参考にする」ということです。
AIと人間の意思決定を対比し、AIの問題を考えることは、人間の意思決定、特に決断を考えるうえで役に立ちます。もう少し考えてみましょう。AI時代を生き抜くための情報として、AIと人間の「得意なこと・不得意なこと」を整理しておきます。
AIが得意とするのは、なんといっても記憶や計算、情報処理といった分野です。扱える情報量が格段に違うため、人間はAIに太刀打ちできません。AIは情報化できるものはすべてデータとして管理することができます。そのため、音声、画像、映像の認識や分析などの仕事はすでにAIなくして成り立ちません。
AIは記憶や情報処理能力に長けているので、マニュアル化された仕事も得意です。海外では、病院内で食事や処方せんを患者ごとに自動的に輸送するロボットがすでに実用化されています。食品工場では、ベルトコンベアで運ばれてくるレタスを測定し、品質基準に満たないレタスを選り分けるロボットが導入されています。身近なところでは、食材を伝えると献立を考えてくれる電子レンジや冷蔵庫など、AIを搭載した便利な家電製品が続々と登場しています。
●AIに倫理的な判断をさせようとしたらどうなるか
一方、AIが不得意なのは、マニュアル化されていない作業や前例のない仕事のほか、クリエイティブな分野です。AIは過去のデータを分析することには長けていますが、まだシステム化されていない物事に対して新しい仮説を立てることは不得意です。さらに、人間の喜怒哀楽の感情を察したり、感じ取ったりすることはある程度まではできますが、客の要望に臨機応変に対応するサービス業や医療、介護など、人間の心の機微にかかわる分野は得意とはいえないでしょう。AIに芥川賞を取るような小説を書かせることは現時点ではまず不可能だと思います。
さて、ここでもう1つ触れておきたいのは、AIがどこまで自分で判断できるのかという、判断の限界についてです。例えば、AIに倫理的な判断はできるでしょうか? 言うまでもなく、人間によるインプットなしにAIに倫理的な判断はできません。
倫理学に「トロッコ問題」と呼ばれる有名な思考実験があります。基本形は次のような問題です。
線路を走っているトロッコが制御不能になった。このままでは前方で作業中の5人がトロッコに轢(ひ)かれてしまう……。このときあなたは、線路の分岐器の近くにいた。あなたが分岐器のレバーを引き、トロッコの進路を切り替えれば5人は助かる。ところが、別路線にも1人作業員がいるため、代わりにその人が轢かれてしまう……。この場合、あなたはどのような選択をすればよいか?
こういう倫理学上のジレンマが起こる深刻な問題を、AIはプログラミングなしに自律的に判断できないので、当然のことながら人間が判断しないといけません。
問題は、誰の判断を入れるかです。(民主主義的な)人間社会ですら合意できないのですから、特定の人間の判断を採用するわけにはいきません。
アイザック・アシモフの小説を下敷きにしているとされる、ウィル・スミス主演の映画『アイ,ロボット』(2004年、監督:アレックス・プロヤス)では、アンドロイドは単純に生存確率を基準に誰を助けるかを判断して主人公を助け、12歳の少女を見殺しにしました。その判断の良し悪しが問われることになります。
●最終的に意思決定するのは誰?
道具としてのAIを使うのも、「何のためにAIを用いて分析するのか」を考えるのも人間です。AIに仕事を指示し、導かれた分析結果にもとづいて最終的に意思決定することも人間にしかできない仕事です。
また、AIがどういう判断をするのかというルールは、そもそも人間が教え込まないといけません。判断基準を設定することや、倫理や価値を教える仕事はAIに代替されることはないでしょう。これらは、社会的合意によってのみ決定されるものです。
もしそれが代替されるようなら、人間は不要になります。AIが「人類は地球にとってマイナスだ」と判断すれば、人間は排除されることになります。そうした時代がやってくるのかどうか、もしやってくるとしたら、これはまさにSFの世界ですね。
(印南一路)
☀ ここで一つだけ問題点を付け加えておくとAIが大量のデーターから導き出した
結論が、人間にとって何故にこの結論に達したのか判らないケースが少なからず
あることです。
詳細なことは別として、簡潔に言えば、原因➡結果と言う因果関係より、関係性
で頻度の起こる確率から結論を出しているからだと推測しています。