@「ディープフェイク」(音声・画像)の偽装で詐欺が増えると予測する記事がある。今までは「会話での偽装」がさらにブラッシュアップされ、本人に似た音声と動画も含めた詐欺事件が起きそうだと言う。悪用された場合、真に本人との確認を自らが行うしか手が無い。
AIブームで声で人をだます犯罪も増加か 闇サイトでは音声クローンサービス「VCaaS」が台頭
AIを使って音声を合成する音声クローン技術が悪用される危険が強まっている。闇サイトでは、そうした悪用に手を貸す「VCaaS」と呼ばれるサービスも台頭しているという。
ITmedia NEWS
※コメント投稿者のブログIDはブログ作成者のみに通知されます