NHKスペシャル
人工知能 天使か悪魔か 2018
未来がわかる その時あなたは…
http://www6.nhk.or.jp/special/detail/index.html?aid=20180915
で、AIについていろいろやってたけど、
一番大事な、AIと人間では考え方が違うということを言っていなかったと思う。
因果関係で考える場合には、3つの問題がある
(1)情報爆発:NP困難になる場合
(2)風が吹けば、桶屋が儲かる:
論理的には正しいんだけど、その可能性は?というものまで、
あり得るように見えてしまう。
(3)大胆すぎる枝刈りによる、ステレオタイプな考え方
(1)の情報爆発を防ぐため、可能性を大胆に枝刈りする。
そのため、実はあり得るんだけど、その可能性を摘み取ってしまうことがある
(定石にとらわれすぎ)
機械学習を使うと、
(1)は、ロジックを追わず、入力と結果だけで考えるので、爆発しない
(2)(3)は、出現可能性が教師信号になり、これを学習するので、この問題は起こらない
その一方で、相関関係で考えると、以下の問題がある
(1)偽相関 本当は直接的な相関はないんだけど、相関があるかのようにみえる
例:家→広い庭がある(アメリカのデータだと、そうだけど、これを日本に適用したときX)
因果関係で考えると、この問題はちぇっくできる。
つまり、相関関係で出た可能性を因果関係でチェックする必要がある。
そこで、人と機械学習の共創が必要なわけ。
大事なのは、機械学習で、因果関係では説明できないものが出てきたとき。
理由は説明できないからと排除するのではなく、
それもありかも?と受け入れることによって、社会が広がる。
犯罪が起こる理由がなくても、そこが危ないとAIがいうなら、とりあえず行ってみる
AIが相性がいいというなら、とりあえず付き合ってみる?
防災の場合、人間では思いつかないこともあるし、
論理的に考える(シミュレーションする)にはスパコンではたりないので、
機械学習の結果は必要だと思う。
ただ、ひとこと!
雲の形みて、天気予測するのは、機械学習だけでなく、人でもやる。
機械学習の専売特許ではない。
人工知能 天使か悪魔か 2018
未来がわかる その時あなたは…
http://www6.nhk.or.jp/special/detail/index.html?aid=20180915
で、AIについていろいろやってたけど、
一番大事な、AIと人間では考え方が違うということを言っていなかったと思う。
因果関係で考える場合には、3つの問題がある
(1)情報爆発:NP困難になる場合
(2)風が吹けば、桶屋が儲かる:
論理的には正しいんだけど、その可能性は?というものまで、
あり得るように見えてしまう。
(3)大胆すぎる枝刈りによる、ステレオタイプな考え方
(1)の情報爆発を防ぐため、可能性を大胆に枝刈りする。
そのため、実はあり得るんだけど、その可能性を摘み取ってしまうことがある
(定石にとらわれすぎ)
機械学習を使うと、
(1)は、ロジックを追わず、入力と結果だけで考えるので、爆発しない
(2)(3)は、出現可能性が教師信号になり、これを学習するので、この問題は起こらない
その一方で、相関関係で考えると、以下の問題がある
(1)偽相関 本当は直接的な相関はないんだけど、相関があるかのようにみえる
例:家→広い庭がある(アメリカのデータだと、そうだけど、これを日本に適用したときX)
因果関係で考えると、この問題はちぇっくできる。
つまり、相関関係で出た可能性を因果関係でチェックする必要がある。
そこで、人と機械学習の共創が必要なわけ。
大事なのは、機械学習で、因果関係では説明できないものが出てきたとき。
理由は説明できないからと排除するのではなく、
それもありかも?と受け入れることによって、社会が広がる。
犯罪が起こる理由がなくても、そこが危ないとAIがいうなら、とりあえず行ってみる
AIが相性がいいというなら、とりあえず付き合ってみる?
防災の場合、人間では思いつかないこともあるし、
論理的に考える(シミュレーションする)にはスパコンではたりないので、
機械学習の結果は必要だと思う。
ただ、ひとこと!
雲の形みて、天気予測するのは、機械学習だけでなく、人でもやる。
機械学習の専売特許ではない。