【注目ニュース】AI音声クローンで「家族の声」で詐欺、米国FTCが注意喚起

いま、AI技術を悪用した新たな詐欺がグローバルで問題になっています。アメリカでは、AI音声クローン技術を使い、家族の声を装って金銭を要求する手口が急増中。特に祖父母世代をターゲットにした「オレオレ詐欺」型の被害が多発しており、社会問題化しています。

恐ろしいのは、その手軽さです。SNSに投稿されたわずか数秒の音声クリップからでも、AIは本人そっくりの声を生成できてしまいます。かつては「声を聞けば本人かどうかわかる」という常識がありましたが、もはやそれは通用しません。

日本ではまだ大きな話題にはなっていませんが、上陸は時間の問題でしょう。ご高齢のご家族がいる方は、今から備えておくことをおすすめします。


【スポンサードリンク】

今すぐできる対策

家族だけの「合言葉」を決めておく:緊急時に本人確認ができる秘密のフレーズを共有しておく

折り返し電話で確認する:かかってきた番号ではなく、自分が知っている番号に電話をかけ直す