【注目ニュース】AI音声クローンで「家族の声」で詐欺、米国FTCが注意喚起

  • URLをコピーしました!

いま、AI技術を悪用した新たな詐欺がグローバルで問題になっています。アメリカでは、AI音声クローン技術を使い、家族の声を装って金銭を要求する手口が急増中。特に祖父母世代をターゲットにした「オレオレ詐欺」型の被害が多発しており、社会問題化しています。

恐ろしいのは、その手軽さです。SNSに投稿されたわずか数秒の音声クリップからでも、AIは本人そっくりの声を生成できてしまいます。かつては「声を聞けば本人かどうかわかる」という常識がありましたが、もはやそれは通用しません。

日本ではまだ大きな話題にはなっていませんが、上陸は時間の問題でしょう。ご高齢のご家族がいる方は、今から備えておくことをおすすめします。

目次

今すぐできる対策

家族だけの「合言葉」を決めておく:緊急時に本人確認ができる秘密のフレーズを共有しておく

折り返し電話で確認する:かかってきた番号ではなく、自分が知っている番号に電話をかけ直す

この記事が気に入ったら
フォローしてね!

よろしければシェアをお願いします
  • URLをコピーしました!

著者

AI教育コンサルタント / 株式会社FlipSilverlining 代表取締役 / 守谷市生成AI活用推進プロジェクトアドバイザー
自治体のAI教育アドバイザーや私立中高の教育コンサルとして学校現場に入りながら、AI時代の教育について書いています。著書3冊(明治図書)、教員研修・講演120回以上、授業視察1,000回以上。

目次