2022/1/19の配信でAIが電話での詐欺を見抜いたとの報道がされている。電話の内容をAIが詐欺と判断し、区の担当者に連絡をしたとのこと。報道はどちらかと言えば”AIのお手柄”のような報道をしているが、この事象のもっと別な面(つまり暗い部分)もあることを思いついた。
会話の内容からAIが詐欺であることを判断できるほど音声認識とAIによる類推の技術が発達していることを思い知らされたが、このAI技術を応用すれば例えば”政府転覆”・”アナーキズム”・”爆弾”等のことばを使用してある文脈で電話で会話をすればそれをAIが”危険人物”と判断し、それをビッグブラザーへ通報するようなこともやろうと思えば現在のAI技術では可能なのだろうと類推する。
すでにインターネットの検索傾向は通信会社を通じてアメリカ政府にAIを使用して監視されているとの話はよく聞くが、電話でもそのような監視が可能なのだろう。
暗号化技術とイタチごっこにはなるのだろうが。
試しに自分のスマホの音声認識で”爆弾の作り方を教えて”と聞いてみたら、”そのような反社会的な質問には答えられません”とでも言うのかと思ったらあっさり”爆弾の作り方”のサイトを案内した。これは”健全”と言うべきか? AIがスマホの使用者に倫理を説くようになったら気持ちが悪いのは確かだ。
「ウイグルの携帯電話にAIを所有者にはわからないように標準装備し、会話の文脈から”政府にとって”の危険人別を割り出し、しかるべき機関へ通報する」というのも技術的にはもう可能なのだろう。
多量の監視カメラの存在とあわせてジョージ オーウェルの世界も少なくとも技術的にはそんなに遠くないのだなと思う。