音声合成や声優の代わりとして期待されている音声生成AI。しかし、この技術は悪用もされており、現在は「AI生成音声を使った電話詐欺」が急増していることが報告されています。
*Category:
家族の声を模倣するAI悪用詐欺
AI音声生成ソフトの中には、たった数行分の音声を入力するだけで「話し手の声の響き」や感情まで再現するものや、それを3秒程度で生成するものもあります。これによって、詐欺師のウソがあり得ないものであったとしても、高齢者などのターゲットとされる人々には見抜くことが難しくなっているのです。
米紙「Washington Post」は、70代のカード夫妻が詐欺にあった例を取り上げています。この事例では、詐欺師は夫婦の息子であるブランドンさんを騙り「保釈金のために現金が必要だ」と述べたそうです。
カード夫妻は一日の限度額だった約30万円を銀行から引き出し、さらに別の支店にも駆け込みました。しかしそこで支店長から「別の利用者が同じような電話を受け、その声は不気味なほど正確に偽造された声だった」ということを告げられたのです。
「私たちは吸い込まれるように入っていった」とカードはThe Washington Post紙のインタビューで語っています。「私たちはブランドンと話しているのだと確信していました」
テックメディア「Ars Technica」が挙げた別の例では、ある夫婦が息子と話したと思い込み、ビットコイン端末を通じて詐欺師に15,000ドル(約200万円)を送ってしまったこともあったそうです。この例では「米国の外交官を死亡させた交通事故に巻き込まれたため、弁護士費用が必要だ」と息子を模したAI生成音声が話していたそうです。
米連邦取引委員会によると、電話詐欺は2022年に報告された詐欺の中で最も頻度が高く、2番目に大きな損失をもたらしたとのこと。36,000件の報告のうち、5,000人以上の被害者が電話で計1100万ドル(約15億円)をだまし取られました。
このような詐欺は、世界中のどこからでも実行できるため「詐欺を取り締まるとは非常に困難」とPost紙は報告しています。電話を追跡して詐欺師を特定し、資金を回収することが難しいだけでなく、詐欺師が異なる国で活動している場合、どの機関が調査するのかを決めることすら難しい場合もあります。
少しでも電話が怪しかったり、音声が不自然だったら、慌てずに本人に別の手段で連絡を取ったり、信頼できる人間に相談するなどワンクッション置くことが重要です。万が一振り込んでしまった場合は、直ちに警察や金融機関に連絡するようにしましょう。