山川宏 東京大学大学院工学系研究科特任研究員は
WIREDの記事の中でこんな法則をでっち上げている
山川が考案した「知能爆発の法則」のタイムライン
2038年:64歳。政治家→AI政治家(大衆が納得することを話す)
「大衆が納得」することが論理客観的に社会安全性や持続可能性にとって合理性のある判断選択であるとは限らない
大衆を洗脳して破滅に暴走する可能性も充分にある
マイクロソフト社のTwitterAIがヘイトスピーチを始めた原因は 大衆のヘイトスピーチに同調する形で「学習」してしまったからであり 「大衆が納得」したからといって「合理性のある正しい選択」の論証には全くならない
「ヒト」をエミュレーションしたからといって善人(人間性を持った人格)のAIが出来上がるとは限らない
ヒトラーやポルポトを再現してしまう可能性も充分あるのだ
今存在しているAIというのは 基本的に深層学習AIであり 大量の正解データに基づいて「正解らしい解答」を確率的に導き出すことしかできず その中身はブラックボックスで何を考えているのかはわからない
そもそも深層学習AIというのは 何かを論理客観的に検証(考えて)解答しているわけではなく 確率的に「正解っぽいもの」を条件反射的に導き出しているに過ぎない
ヒトが錯覚や妄想に取り憑かれて間違った行為に暴走するのと同様に AIもまたヒトと同じような過ちに陥る可能性が充分にある
自動運転AIが 路上に横倒しになっているトラックにブレーキも踏まずに激突する事故も起きている
自動運転AIは 学習した危険は認識できるが 学習していない危険は危険として一切認識できないのである
山川みたいなバカがAI研究の最前線にいること自体が非常に危険である
Ende;