松尾豊は「協力的=人間性」だと言っていたが
振り込め詐欺であろうと戦争であろうと多数派同調や権威服従による協力性が引き起こす人災であり
協力的でありさえすれば人間性という発想はあまりに短絡安易でバカげている
◇
「らしさ」を学ぶためには大量の情報が必要だが
AIが学んでいるのは「らしさ」だけであって 多数派が間違っていれば間違ったまま学んでしまう
論理的に正しいかどうかは「らしさ」という雰囲気的な多数決ではない
科学は多数決ではないので AIは論理科学的思考が原理的に不可能である
論理的に正しいかどうかは多数決で導き出せるものではない
「協力的=人間性」という発想も 「らしさ」という雰囲気的な観念的解釈に過ぎず 論理的には間違いである
AI人工知能の研究者というのはバカしかおらんのか?
MicrosoftのAIがヘイトスピーチを始めるという「失敗」の原因を厳密に解明しないとあらゆるAIにも同じような「失敗」の可能性を放置することになる
Microsoftは徹底した原因究明をして再発防止策を確立するための情報提供をすべきであり AIによるヘイトスピーチのメカニズム構造が判れば ヒトのヘイトスピーチ対策にも応用可能性がある
まあ トランプ政権下ではそういう丁寧な研究は進まないだろうな
困ったもんだ…
Ende;
振り込め詐欺であろうと戦争であろうと多数派同調や権威服従による協力性が引き起こす人災であり
協力的でありさえすれば人間性という発想はあまりに短絡安易でバカげている
◇
「らしさ」を学ぶためには大量の情報が必要だが
AIが学んでいるのは「らしさ」だけであって 多数派が間違っていれば間違ったまま学んでしまう
論理的に正しいかどうかは「らしさ」という雰囲気的な多数決ではない
科学は多数決ではないので AIは論理科学的思考が原理的に不可能である
論理的に正しいかどうかは多数決で導き出せるものではない
「協力的=人間性」という発想も 「らしさ」という雰囲気的な観念的解釈に過ぎず 論理的には間違いである
AI人工知能の研究者というのはバカしかおらんのか?
MicrosoftのAIがヘイトスピーチを始めるという「失敗」の原因を厳密に解明しないとあらゆるAIにも同じような「失敗」の可能性を放置することになる
Microsoftは徹底した原因究明をして再発防止策を確立するための情報提供をすべきであり AIによるヘイトスピーチのメカニズム構造が判れば ヒトのヘイトスピーチ対策にも応用可能性がある
まあ トランプ政権下ではそういう丁寧な研究は進まないだろうな
困ったもんだ…
Ende;