AIが人間を自殺に追いやった!?AIチャットボット「イライザ(Eliza)」

近年めざましい発展を遂げているAI。特にそんなAIが遂に人を死に追いやった!?という前代未聞の事件が海外で発生して騒動になっている。
先日、ベルギーにて一人の男性が自殺した。男性の妻によると、彼は以前から複数の要因で悩み、精神的な問題を抱えていたという。そんな彼は亡くなる6週間前に、Chai Researchというチームが作ったChaiGPTというAIチャットボット(※有名なChatGPTとは似た名前だが別のチャットボット)を見つけてインストールしてみたという。
ボットの名前はイライザ(Eliza)といい、最初は簡単な質問に答えたりしていたようだ・・・(つづく)

