電話に出ると「ママ、助けて!」と娘の悲鳴、実はAIによるクローン音声で仕掛けられた偽装誘拐だった
2023年8月4日
https://internet.watch.impress.co.jp/docs/column/dlis/1521526.html

前略
>> なりすまし詐欺は昔からありましたが、従来は人の悲鳴を録音したものを使っていました。しかし、近年では、AIで声を真似るようになり、見破ることが難しくなってきています。
中略
>> FBIは、今回の偽装誘拐事件もAIによるクローン音声が使われたと見ています。クローン音声を作るには本人の音声データが必要ですが、わずか数秒から1分ほどで十分とされるケースも出ています。こうなると、例えば詐欺師が電話をかけて黙っていれば、「もしもし?」などと言ってくるので、それを録音するだけで済みます。もしくは、SNSで公開している動画から音声を抜き出す手もあります。