進化を続けるAIによりディープフェイクが容易になりつつある。すでに人の耳では、AIがテキストから合成したものか、人の声かを聞き分けるのは難しいレベルまできている。自分の声を勝手に使われ、振り込め詐欺等の犯罪に使われることなども考えられる。
また、政治家の映像などで表情だけを意のままに動かしたり、話してもいないことを話させることも可能となる。
他人をだましたり、悪意を持って人の評判をおとしめ、世論を操作したりするフェイクを全自動で違和感なく合成できる時代もそう遠くない。
現在の技術進歩を考えれば、特別な技術や知識が無くても誰でもこのようなことが可能になる時期がすぐきそうである。
そうなると社会の混乱は避けられず、個人にとっても犯罪に巻き込まれたり、身に覚えのないことで批判を受けたり犯罪者にされることもありうる。
これを防ぐにはネットを含むすべての媒体で本人か否かを判断できる認証システムの確立が不可欠である。現在、ネット上の芸術について本物であることを証明するシステムが稼働しているが、人間個人についてもその画像お音声、動画等が本物か否かをチォックできるシステムの開発が急がれる。
また、政治家の映像などで表情だけを意のままに動かしたり、話してもいないことを話させることも可能となる。
他人をだましたり、悪意を持って人の評判をおとしめ、世論を操作したりするフェイクを全自動で違和感なく合成できる時代もそう遠くない。
現在の技術進歩を考えれば、特別な技術や知識が無くても誰でもこのようなことが可能になる時期がすぐきそうである。
そうなると社会の混乱は避けられず、個人にとっても犯罪に巻き込まれたり、身に覚えのないことで批判を受けたり犯罪者にされることもありうる。
これを防ぐにはネットを含むすべての媒体で本人か否かを判断できる認証システムの確立が不可欠である。現在、ネット上の芸術について本物であることを証明するシステムが稼働しているが、人間個人についてもその画像お音声、動画等が本物か否かをチォックできるシステムの開発が急がれる。