「差別をAIに植え付ける」としてMIT研究者らが大規模なデータセットをネットから完全削除 20200702
近年は人工知能(AI)が差別や偏見を行う可能性が危険視されており、「人工知能アルゴリズムを用いた画像生成が差別を行っている」とFacebookの人工知能部門におけるチーフ研究者が多くの非難や攻撃を受け、 Twitterアカウントを停止する事態にもなっています。
ニューラルネットワークを訓練する過程ではデータセットが用いられますが、このデータセットが差別の原因となっているとして、10年以上使われてきた大規模なデータセットが研究者自身の手によって削除されました。
機械学習によって訓練されたAIは、訓練の過程で「人間によって作られたデータセット」を読み込みます。AI自体は差別や偏見を自身で作り出すことはありませんが、データセットを元に学習を行うという仕組み上、AIはデータセットに含まれた差別や偏見をそのまま受け継ぐ可能性があるわけです。
例えば、機械学習によって訓練されたAIは「花」や「音楽」などを「楽しいもの」と関連付けるのに対して、「虫」や「武器」といった単語を「楽しいもの」に関連付けない傾向があるとわかっています。
同様に「女性」という言葉を「芸術性」と関連づける一方で、「数学」には関連付けにくい 傾向があるとのこと。
このような問題はかねてから指摘されており、人間の差別を反映しないデータセットの作成が重要視されています。
マサチューセッツ工科大学(MIT)は2008年に800億枚の画像を使った「Tiny Images」という画像ライブラリを作成しました。この画像ライブラリは「写真」と「被写体の名称ラベル」を結び付けており、コンピューターの訓練に使われます。
しかし、次世代認証サービスを開発する「UnifyID」のチーフ科学者であるVinay Prabhu氏とユニバーシティ・カレッジ・ダブリンの博士過程学生であるAbeba Birhane氏がTiny Imagesについて調査したところ、何千もの画像がアジア系や黒人の差別用語でラベル付けされており、女性を説明するのに不適切なラベルも使用されていることが判明しました。
解析の図では「b***h」(売春婦)、「child_molester」( ソドミー)、 「c**t」(女性器)、「rape_suspect」(レイプ容疑者)といった言葉のラベルを付けられた画像がそれぞれ1000~2000枚あることが示される。
データセットには黒人の差別用語でラベル付けされたサルの写真、あるいは売春婦というラベルのついた水着姿の女性の写真、ひわいな言葉でラベル付けされた解剖学的部位などが含まれていました。
このような関連付けが行われることにより、Tiny Imagesを利用して訓練を行ったニューラルネットワークに依存するアプリやウェブサイト、製品などが写真や映像を分析する際に、これらの用語を使用する可能性が指摘されていました。
この問題を受けて、2020年6月29日付けで、MITはTiny Imagesをオンラインから完全削除しました。MITのAntonio Torralba教授らによると、Tiny Imagesデータセットに不適切な用語が含まれていたのは、データセットが英語の概念辞書・ WordNetによって自動的に作られたデータコレクションに依存するためとのこと。
データセットは非常に大きく、かつ画像は32×32ピクセルと非常に小さいことから手動によるフィルタリングが難しいとして、研究者は修正を加えるのではなくデータセットそのものをインターネット上から削除するという判断を下しました。
なお、IBMは2020年6月に「テクノロジーが差別と不平等を助長することを懸念している」ことを理由に顔認識市場から撤退することを発表しました。顔認識ソフトウェアは多くの国で犯罪捜査に利用されていますが、これもデータセットの問題があり、黒人の認証精度が特に低く、誤認逮捕の原因となることが問題視されています。
IBMが顔認識市場から撤退を表明、「テクノロジーが差別と不平等を助長することを懸念」 - GIGAZINE 2020/07/02 より
💋自浄能力や多様な価値観や自由な発想が抑制・抑圧される支那でのAI開発に恐怖を感じる…