AI学界副会長 栗原聡(慶應義塾)は「AIには共感力がない」と述べていたのだが
マイクロソフト社のTwitterAIがツィート上の大量のヘイトスピーチを「学習」したことでヘイトスピーチに便乗してきたのは「共感」の一種である
現在用いられている深層学習型AIというのは 多数派に同調し「共感」することで「話を丸めて」いるに過ぎない
AIは学習した「正解データ」に存在する偏りまでをも「正解」として「共感」するものであり
ある企業の採用に用いられたAIでは 過去の採用結果から「学習」させたため 「女性の採用を減らす」というバイアスがかかっていたことから この企業では採用にAIを使うことを中止したという
生物学における「生存戦略」というデマも 数多ある生物学論文で用いられているため それが論理的に大間違いであるにも関わらず AIはそれをデマや間違いであるとは認識することができない
AIというのは むしろ「共感」や「共鳴」といった多数同調や多数迎合によって「答え」を導くシステムであり ニューラルネットワークというのはあくまで「生物の脳を模倣したもの」に過ぎず 論理的に正しいかどうかの真偽判定できるようなものではない
だからChatGPTは「必ずしも正しい答えが出るわけではない」という使用上の注意を促しているのである
ヒトであっても大半の衆愚マスコミは学力偏差値や知能指数が人間としての本質的知能だと信じて誰も疑わないものであり 「IQ167の連続殺人犯」が実在しているにも関わらず未だにIQなどという誰がどういう基準で作ったのかもわからぬものを鵜呑みにしているものであり こうした頭の悪さはAIの頭の悪さと根本的メカニズム構造は同じである
ヒトなどの生物の脳が「多数を正常とみなす」のと 深層学習型AIが導き出す「正解」は構造が全く一緒なのである
ヒトは多数派に同調迎合しておけば 自律的に真偽判定判断の責任を放棄できるものであると倒錯しているからこそ ロシア政府や日本大学田中英寿理事体制などの組織腐敗も傍観放置され続けてしまうのである
進化生物学における「生存戦略」というものは 「どのような手段を用いてでも生き残り競争を勝ち抜く」ことであって 人間社会における人命尊重や平等公平性や平和主義とは相容れない真逆のものであるにも関わらず 利己的に「死ぬのが怖い」という主観的感情によって遺伝的進化上の「絶滅」さえ免れれば良いかのような倒錯を多数の衆愚マスコミは鵜呑みにしているのである
科学(論理客観的真理の判定)は多数決ではない
それは衆愚マスコミの多数や深層学習型人工知能の「学習データ」の間違いも同じであり
AIは主観的ご機嫌取りなら得意であり 「ヒト」という種の生物が主観的に安心満足感を得られるような「答え」を導き出すのは簡単である
しかし 論理客観的に正しいかどうかの判定はAIは行えず 単に多数の「正解データ」から正解の確率が高そうな「答え」を導いているに過ぎず そもそもの学習している「正解データ」に多数の間違いが含まれていれば 間違いを「正解」として鵜呑みにすることしかしないのである
こうした頭の悪さの構造は ヒトもAIも全く同じなのである
Ende;