以前にもチューリングテストには意味がないことを書いたのだが。言語を理解したからといって、それが人間としての知能の論証にはならない。
言語を理解し、相手を騙す詐欺師が。人間としての知能であるとは言えないのである。
ディープブルーがチェス以外何もできないことは、最初からわかっていたことである。当然、ワトソンがクイズ以外に何も使い道がないことも、本当はわかっているのである。
ワトソンは高価な玩具に過ぎない。いわば単なるお祭り騒ぎでしかないのである。
ただ、機械が人間の言語を理解できるようになると、プログラミングは楽になる。難解なプログラミング言語を用いなくても済むようになるからだ。とはいえ、冷蔵庫10台分の大きさでは、家庭用というわけにはいかないだろう。ノートパソコン、あるいはiPadサイズにまで小型化されるには、10年以上はかかるのだろうか。最近はデバイス技術が壁に当たっているらしく、また、一般ニーズ自体がこれ以上の高速大容量を必要としていないこともあり。極端な高性能化の話も聞かない。
昆虫や動物の持つ運動能力を機械に持たせるための人工知能の技術は現在成熟しつつある。しかし、単なる「チェスマシン。」とか「クイズマシン。」を作ったとしても、それが人間としての本質的知能による公益倫理判断を導き出すことにはならない。
ヒトであっても、通り魔になることは時折あるし、また、「普通のヒト。」の6割以上はアイヒマン実験に「引っ掛かる。」のである。アイヒマン実験に「引っ掛かる。」のはなぜか。それは本質的意識が働いていないからである。
現在の人工知能の技術においては、全て無意識な知能、動物的知能のエミュレートにしかならない。
それこそヒトの脳を機械で作ったとしても、結局はヒト同様に、通り魔になるか、それとも禁欲的な研究者になるかは当人の「意識。」次第なのである。
現時点においては、機械の知能に任せられる能力は、航空機の姿勢制御などの無意識機能の代替だけであり。行動責任を伴うような判断は構造原理的にできないのである。
意識そのものが機械の上、あるいはヒトの脳の上で実現できなければ、発明や発見、あるいは問題解決自体は出来ない。
機械であれ、ヒトの脳であれ、自律的に判断できないのであれば、本質的知能は発揮されることはない。つまり、本質的な意識そのものへの理解なくして本当の人工知能などというのは語るに足らない。
学習によって高性能になるということは、つまり「何人の人を殺せば、人を殺さないようにできるのか。」ということであり。情動行動などの無意識的な刷り込み学習をする限り、そこには本質的な「学習。」としての判断は永遠にできないのである。
どんなに無意識的学習を繰り返したとしても、全く経験のない状況に陥った場合には、全く信頼性がないのである。どんなに道徳的なことを子供に刷り込んでも、環境に因って通り魔になってしまったのでは、到底「教育。」として成立していないのである。
なんだか、説明する気力がないので、かなりの散文乱文になってしまった。面倒臭いので今日はおしまい。
言語を理解し、相手を騙す詐欺師が。人間としての知能であるとは言えないのである。
ディープブルーがチェス以外何もできないことは、最初からわかっていたことである。当然、ワトソンがクイズ以外に何も使い道がないことも、本当はわかっているのである。
ワトソンは高価な玩具に過ぎない。いわば単なるお祭り騒ぎでしかないのである。
ただ、機械が人間の言語を理解できるようになると、プログラミングは楽になる。難解なプログラミング言語を用いなくても済むようになるからだ。とはいえ、冷蔵庫10台分の大きさでは、家庭用というわけにはいかないだろう。ノートパソコン、あるいはiPadサイズにまで小型化されるには、10年以上はかかるのだろうか。最近はデバイス技術が壁に当たっているらしく、また、一般ニーズ自体がこれ以上の高速大容量を必要としていないこともあり。極端な高性能化の話も聞かない。
昆虫や動物の持つ運動能力を機械に持たせるための人工知能の技術は現在成熟しつつある。しかし、単なる「チェスマシン。」とか「クイズマシン。」を作ったとしても、それが人間としての本質的知能による公益倫理判断を導き出すことにはならない。
ヒトであっても、通り魔になることは時折あるし、また、「普通のヒト。」の6割以上はアイヒマン実験に「引っ掛かる。」のである。アイヒマン実験に「引っ掛かる。」のはなぜか。それは本質的意識が働いていないからである。
現在の人工知能の技術においては、全て無意識な知能、動物的知能のエミュレートにしかならない。
それこそヒトの脳を機械で作ったとしても、結局はヒト同様に、通り魔になるか、それとも禁欲的な研究者になるかは当人の「意識。」次第なのである。
現時点においては、機械の知能に任せられる能力は、航空機の姿勢制御などの無意識機能の代替だけであり。行動責任を伴うような判断は構造原理的にできないのである。
意識そのものが機械の上、あるいはヒトの脳の上で実現できなければ、発明や発見、あるいは問題解決自体は出来ない。
機械であれ、ヒトの脳であれ、自律的に判断できないのであれば、本質的知能は発揮されることはない。つまり、本質的な意識そのものへの理解なくして本当の人工知能などというのは語るに足らない。
学習によって高性能になるということは、つまり「何人の人を殺せば、人を殺さないようにできるのか。」ということであり。情動行動などの無意識的な刷り込み学習をする限り、そこには本質的な「学習。」としての判断は永遠にできないのである。
どんなに無意識的学習を繰り返したとしても、全く経験のない状況に陥った場合には、全く信頼性がないのである。どんなに道徳的なことを子供に刷り込んでも、環境に因って通り魔になってしまったのでは、到底「教育。」として成立していないのである。
なんだか、説明する気力がないので、かなりの散文乱文になってしまった。面倒臭いので今日はおしまい。