きのうの朝日新聞で、AIは感情を持てるか、という特集をしていた。このような記事を1面と2面にもってきた朝日新聞編集部の意図が、私にはわからない。
科学の問題としては、人間の心を探るために、コンピューターを使ってシミュレーションする意義はある。
たとえば、自然言語を学習する機械(たとえばChatGPT)があたかも感情をもっているかのように見えたら、感情は言語の学習によって作られるものになる。もちろん、そういうことはないと私は思っている。学習で得られるのは社会的儀礼としての喜怒哀楽にすぎない。
いっぽう、マーク・ソームズは『意識はどこから生まれてくるのか』(青土社)のなかで、魚類から人間まですべての脊髄動物に共通した構造のなかで自我意識が生まれていると述べている。また、すべての哺乳類は類似の感情を持っていると言う。したがって、感情は非常に簡単な仕組みで生じていて、AIでシミュレーションできてもおかしくない。
しかし、本当の問題は別にある。
現実のAIは商品として開発されている。したがって、AIに感情を持たすより先に、現実のAIは有用な道具でなければならない。道具としてのAIには、(1)誰にとって有用なのか、(2)品質を保証できるか、の問題がある。
問題(1)は、さらに、誰かに有用な道具は誰かに危害を加えないかの問題に発展する。AIによって不利益をこうむった人たちは、そのAIを使用した者や開発した者を訴訟する権利をもつ。では、そのAIによる不利益をどう立証するか、どれだけの処罰か、民事だけなのか、刑事罰は不要なのか、ということを、法的に整理する必要がある。
AI以前のデジタル検索でも、検索アルゴリズムの作る偏りで、ヨーロッパのある女の子が自殺に追い込まれたという記事を 先日 朝日新聞で見た。その件の裁判はどうなったのかを私は知りたい。
問題(2)に関しては、学習型のAIの品質保証は容易でない。確率的にもっとも適切だとアルゴリズムが思う対処をしているだけで、個々には、AIがくだす対処が適切でないかもしれない。確率も、学習した資料データの統計頻度に基づくだけで、その資料データが適切でないかもしれない。
道具のAIの品質が保証が簡単にできないとすれば、政府や企業がそれを安易に使っていいのだろうか、倫理的に問われると、私は考える。
[関連ブログ]