グーグルフォトが黒人女性をゴリラと認識した事例があるそうだが
深層学習AIなんてそんなもん
ちっちゃい子供が背の高さだけを基準に女子高生を「おばさん」呼ばわりしてしまうのと同じことで 学習データが足りないとAIも幼児と似たような判別しかできない
世間的には檀れいとか深田恭子は「おばさん」に分類されることになるが 小さい子供からすると女子高生との区別はあまりつかないため 背の高さが似たような女子高生も「おばさん」に分類してしまうのだ
小さい子供からすると「お姉さん」は「自分よりも大きくて でも大人程は大きくない女性」としか分類できないからだろう
5歳児からすれば6歳女子も「お姉さん」になるわけで 別に悪意があって女子高生を「おばさん」と分類しているわけではない
市街地に迷い込んだニホンザルを見た幼稚園児が「おばあさんがいた」と証言した事例もある
幼稚園児は「おばあさん」と「ニホンザル」の区別はあまりつかないのである
幼児とかAIには「失礼」という概念があまりないので 直感的に似ているものは同じものに分類してしまうのである
ジェンダーの問題も同じような面があって 「男とはこういうもの」「女とはこういうもの」という固定観念が強いと無意識に差別をしてしまうことになる
「お茶くみは女子の仕事」なんてのも いわば「脳が幼稚」だから出てくる発想 脳が「学習」してしまった固定観念に合理的根拠がないことに気づけない(意識がない)のが原因
AIというのは発想が幼稚なので 高速道路上に横倒しになっているトラックがあっても危険だとは認識せずにノーブレーキで激突することもある
教えてもらっていない危険性は危険だと認識する「気付き」は一切ない
深層学習AIなんてのはその程度のものだと認識しておく必要がある
人間が気づかないものに気づけることもあるのだが あくまで機械であって人間ではないことは認識して利用しないと危険なこともよくある
「日本はAI倫理がとても弱い」東大の文系教授がAI社会に鳴らす警鐘 -Ledge.ai
Ende;