あらゆる人災っていうのは頭が悪いから引き起こされるんであって
「地下鉄に毒ガス撒けば人類の救済」だとか
「犯罪や過失は刑罰判決で解決だ」といった合理性のない実証不能の観念を鵜呑みにする頭の悪さが原因なわけですよ
教えられれば多くの人が理解可能な業績であれば それは多くの人の誰が思い付いてもおかしくはないでしょ それなら「思い付いた人を天才だと祀り上げて浮かれて気分的に満足する」ことが重要なんじゃなくて 「思い付かなかった理解可能な大多数の頭の悪さ」について検証することの方が重要なんですよ
それによって より多くの回避可能な危険性を予め知ることが出来るようになる
誰も思い付かなかったことを 思い付いた特定個人をもてはやしておけば 思い付かなかった大多数の頭の悪さの免罪符になるわけじゃないでしょうが
回避可能な危険性を 回避出来ない頭の悪さを認識しないというのは 社会安全性を優先しない無責任であり 非人間性でもあるわけですよ
他人から教えられたことをただ漫然と鵜呑みにし 自発的には何も論理検証しないのは 本質的な自己の意識としての客観性がないからですよ
学力偏差値だのクイズの正解率を論拠に 「自分は頭が良い」などと気分的に満足するだけで 実際には何が間違いなのかを自律的に気付かないのであれば これは「偏差値が高いだけの ただのバカ」でしかないんですよ
偏差値なんぞ認知科学的には知能の論証になどなりませんからね
偏差値が高い奴なんていっぱいいるのに 何で130年以上もフランシス:ゴルトンの優生学に対する論理反証を誰もしなかったんですかね
それは「考えたことがなかった」からであって 同時に自発性とか主体性がないから自分からは「考えたことがなかった」わけです
学力偏差値っていうのは 教えられたことを教えられた通りに答えられれば上がります
ですから 教えられた内容に間違いがあっても学力偏差値を目的にしている限りは教えられた内容の間違いを自発的に気付くことは出来ないわけです
この構造自体の欠陥を認識出来ないのも 同じ理由です
大多数の大衆が学力偏差値を知能だと勘違い錯覚しているという社会環境を 短絡的に鵜呑みにしているだけで こうした大衆の観念に論理科学的根拠がないことに気付かないバカが どんなに学力偏差値を自慢していても 教えられた内容の間違いにも気付かなければ 必然的に新しい発見にも到達出来ないわけです
多数に同調するというのは ニューラルネットワークAIの得意分野です
そもそもニューラルネットワークAIにおける「学習」過程というのは 大量の「正解」データを必要とするものであって 間違った「正解」に基づいて学習させれば間違った「正解」しか導き出すことは出来ない
だからMicrosoftのTwitterAIはヘイトスピーチに同調したわけです
現在のニューラルネットワークAIというのは論理的に何が「正解」なのかを判別することは出来ず あくまでヒトが「正解」データを用いて教え込むことでしか動作することは出来ない
「ヒト」っぽく振る舞うことは出来るんだが 「人間」としての自律的な社会的責任判断は原理的に出来ない
アラン:チューリングによる「チューリングテスト」というのは 「人間か機械かを判別」することは出来ず あくまで「ヒトか機械かを判別」するレベルでの話でしかない
その意味においてはMicrosoftのTwitterAIは「ヒト」という種の生物は再現出来たと言っても構わないだろう しかし 人間性や倫理が伴うかどうかは全く別次元の話である
AI(機械)は所詮道具であって 人間性というのは人間が担保すべきものであることは永遠に変わることはない
「生物の目的は 生存」だとか「司法判決が解決」といった 合理的根拠のない観念的決めつけであっても AIは多数に同調するだけで そこに合理的根拠が存在していないことにまでは言及することは出来ない
精々「大学の試験で高得点を獲る」だとか「クイズの正解率を上げる」ことは出来ても 教えられた内容に間違いが存在していることには全く「気付く」ことが出来ないのである
バカは何も気づくことができないので アクセルペダルとブレーキペダルを隣合わせに配置するという因習を「今更変えられない」と称して ポカヨケ再発防止すらしなくなる
自分の頭の悪さの難治性について認識すべきである
そうでなければ これからも無駄に死ぬ人はいなくならないだろう
Ende;
「地下鉄に毒ガス撒けば人類の救済」だとか
「犯罪や過失は刑罰判決で解決だ」といった合理性のない実証不能の観念を鵜呑みにする頭の悪さが原因なわけですよ
教えられれば多くの人が理解可能な業績であれば それは多くの人の誰が思い付いてもおかしくはないでしょ それなら「思い付いた人を天才だと祀り上げて浮かれて気分的に満足する」ことが重要なんじゃなくて 「思い付かなかった理解可能な大多数の頭の悪さ」について検証することの方が重要なんですよ
それによって より多くの回避可能な危険性を予め知ることが出来るようになる
誰も思い付かなかったことを 思い付いた特定個人をもてはやしておけば 思い付かなかった大多数の頭の悪さの免罪符になるわけじゃないでしょうが
回避可能な危険性を 回避出来ない頭の悪さを認識しないというのは 社会安全性を優先しない無責任であり 非人間性でもあるわけですよ
他人から教えられたことをただ漫然と鵜呑みにし 自発的には何も論理検証しないのは 本質的な自己の意識としての客観性がないからですよ
学力偏差値だのクイズの正解率を論拠に 「自分は頭が良い」などと気分的に満足するだけで 実際には何が間違いなのかを自律的に気付かないのであれば これは「偏差値が高いだけの ただのバカ」でしかないんですよ
偏差値なんぞ認知科学的には知能の論証になどなりませんからね
偏差値が高い奴なんていっぱいいるのに 何で130年以上もフランシス:ゴルトンの優生学に対する論理反証を誰もしなかったんですかね
それは「考えたことがなかった」からであって 同時に自発性とか主体性がないから自分からは「考えたことがなかった」わけです
学力偏差値っていうのは 教えられたことを教えられた通りに答えられれば上がります
ですから 教えられた内容に間違いがあっても学力偏差値を目的にしている限りは教えられた内容の間違いを自発的に気付くことは出来ないわけです
この構造自体の欠陥を認識出来ないのも 同じ理由です
大多数の大衆が学力偏差値を知能だと勘違い錯覚しているという社会環境を 短絡的に鵜呑みにしているだけで こうした大衆の観念に論理科学的根拠がないことに気付かないバカが どんなに学力偏差値を自慢していても 教えられた内容の間違いにも気付かなければ 必然的に新しい発見にも到達出来ないわけです
多数に同調するというのは ニューラルネットワークAIの得意分野です
そもそもニューラルネットワークAIにおける「学習」過程というのは 大量の「正解」データを必要とするものであって 間違った「正解」に基づいて学習させれば間違った「正解」しか導き出すことは出来ない
だからMicrosoftのTwitterAIはヘイトスピーチに同調したわけです
現在のニューラルネットワークAIというのは論理的に何が「正解」なのかを判別することは出来ず あくまでヒトが「正解」データを用いて教え込むことでしか動作することは出来ない
「ヒト」っぽく振る舞うことは出来るんだが 「人間」としての自律的な社会的責任判断は原理的に出来ない
アラン:チューリングによる「チューリングテスト」というのは 「人間か機械かを判別」することは出来ず あくまで「ヒトか機械かを判別」するレベルでの話でしかない
その意味においてはMicrosoftのTwitterAIは「ヒト」という種の生物は再現出来たと言っても構わないだろう しかし 人間性や倫理が伴うかどうかは全く別次元の話である
AI(機械)は所詮道具であって 人間性というのは人間が担保すべきものであることは永遠に変わることはない
「生物の目的は 生存」だとか「司法判決が解決」といった 合理的根拠のない観念的決めつけであっても AIは多数に同調するだけで そこに合理的根拠が存在していないことにまでは言及することは出来ない
精々「大学の試験で高得点を獲る」だとか「クイズの正解率を上げる」ことは出来ても 教えられた内容に間違いが存在していることには全く「気付く」ことが出来ないのである
バカは何も気づくことができないので アクセルペダルとブレーキペダルを隣合わせに配置するという因習を「今更変えられない」と称して ポカヨケ再発防止すらしなくなる
自分の頭の悪さの難治性について認識すべきである
そうでなければ これからも無駄に死ぬ人はいなくならないだろう
Ende;