この出来事は2022年以降、特に2023年から2024年にかけて国内外で報告されている現象です。
AIボイスクローン詐欺とは何か
AIボイスクローン詐欺とは、人工知能技術を用いて実在する人物(特に親や身内)の音声を複製し、電話で偽りの情報を伝えて金銭を詐取する犯罪手口です。
従来のオレオレ詐欺では、詐欺師が自分の声を工夫して被害者を騙してきました。しかし、AI音声合成技術の急速な発展により、実在する人物の音声をリアルに複製することが可能になったと言われています。
この新型詐欺は、2022年から2023年にかけて欧米で初期事例が報告され、2023年中盤以降、日本国内でも被害報告が増加しているとされています。
AI音声生成技術の進化
AI音声合成技術は、2010年代初頭から研究が進められてきました。初期段階では、合成音声の質は低く「不自然な音声」と容易に判別されていました。
しかし、2018年から2020年にかけてディープラーニング技術の進化により、自然な音声生成が可能になり始めたとされています。2021年から2022年には、わずか数秒の音声サンプルがあれば高精度で音声を複製できる技術が登場したと言われています。
2023年以降、こうした技術がクラウドベースのサービスとして一般向けに提供され始め、技術的な知識がない犯人でも容易に使用できる環境が整ってきたと指摘されています。
実際の被害事例と手口
報告されている被害事例では、以下のような流れで詐欺が行われているとされています:
1. 犯人が親のSNSや動画プラットフォームから音声サンプルを採集 2. AI音声クローン技術で親の声を複製 3. 被害者(子ども)に電話をかけ、親になりすまして「事故を起こした」「急に金が必要」などと告げる 4. 被害者が親の声だと信じ込み、指定口座に送金
2023年の欧米での事例では、10万ドル以上の被害が報告されたケースもあると言われています。日本国内では、2023年秋以降、警察に相談が寄せられ始めたとされており、全国でも類似事件が発生している可能性が指摘されています。
詐欺と識別するポイント
AIボイスクローン技術が高度化している一方で、完璧ではないと言われています。被害を防ぐためのポイントは以下の通りです:
・親からの電話でも、金銭を要求された場合はいったん通話を終了し、別途確認する ・背景音が不自然に聞こえないか確認する ・親が話さない特定のフレーズや家族内の秘密を確認する ・通話品質が異常に良すぎるか、逆に悪いか注意する ・電話番号が通常と異なっていないか確認する
ただし、技術が進化するにつれて、これらの識別方法も突破される可能性があると指摘されています。
対策と今後の課題
2023年以降、各国の警察や通信事業者が対策を強化し始めたとされています。日本の警察庁でも、2024年に本格的な注意喚起を開始したと言われています。
技術的な対策としては、電話の発信元認証技術の強化や、AI生成音声を検出するシステムの開発が進められているとされています。
しかし、AI音声生成技術の発展速度が対策を上回る可能性も懸念されており、今後さらに深刻な被害が増える可能性があると指摘されています。
オレオレ詐欺の進化という文脈
従来のオレオレ詐欺は、1990年代後半から2000年代初頭にかけて流行し、全盛期は2010年代と言われています。しかし、2010年代後半から詐欺認知度が高まり、被害が減少傾向にあったとされています。
このAIボイスクローン詐欺は、減少傾向にあった詐欺犯らが、新しい技術を悪用して「オレオレ詐欺」を進化させた形態であると指摘されています。
まとめ
AIボイスクローン詐欺は、2022年から2023年にかけて急速に登場した新型詐欺手口です。AI音声生成技術の進化(特に2021年から2023年の急速な発展)により、実行可能性が高まったと言われています。
従来のオレオレ詐欺の識別方法が通用しなくなる可能性もあり、金銭を要求する電話には、親の声であっても慎重に対応することが求められます。
本記事で紹介した詐欺手口に該当する電話を受けた場合は、警察や通信事業者に報告することが重要です。でんわチェックで番号を調べてみましょう。
※本記事の情報はでんわチェック編集部が調査・編集したものです。内容の正確性・完全性を保証するものではありません。最新情報は各公式サイトや総務省、警察庁等の公的機関にてご確認ください。