International

詐團用AI變聲假冒兒子 她愛子心切損失1.5萬

Vendor Icon

桃園電子報

1月. 30, 2024

居住在加州米爾谷的一位母親成為了一起利用AI技術克隆兒子聲音的電話詐騙受害者。

專家表示,AI可以輕鬆仿製人類聲音,混淆受害者的視聽,從而行騙。示意圖:舊金山世界日報社提供

在米爾谷當地學校工作的崔普(Amy Trapp)在某一天接到陌生電話。令她震驚的是,她聽到了兒子的聲音,聲稱出了車禍,隨後引發的一系列事件,幾乎讓她把1.5萬元轉給詐騙犯。

利用AI技術的詐騙犯生成了崔普兒子的聲音,成功說服崔普相信,她的兒子在一起車禍中導致一名孕婦受傷,目前正被關押在監獄中。另一名冒充律師的騙子要求其支付保釋金,在焦慮和恐懼的壓力下,崔普已經做好付款的準備。

「那絕對是我兒子的哭聲,他在電話中哭喊到,媽媽,媽媽,我出了車禍。」崔普想像著自己兒子倒在血泊中的場景。

幸好崔普的丈夫及時報警。在騙局的數個小時後,這對夫婦意識到這是一起詐騙。而他們的兒子在整件事情的過程中,安安靜靜地在學校宿舍裡學習。

丈夫回憶道,騙局之所以能成功是因為其說服一個孩子的媽媽相信,她是在和自己的兒子說話。「我從未想過,我真的能夠被這樣的手段所欺騙。」他表示,平時看到可疑的郵件和電話,他都會特別小心。

近年來,加州以及美國各地報告的電話詐騙都有所增加,無論是傳統騙局還是新式的以AI技術驅動的。聯邦調查局(FBI)統計,截止去年9月,大約有195名受害者遭到同類型詐騙,造成約190萬元的損失。

加州檢察長辦公室表示,AI技術在詐騙中扮演的角色正在增加,他們鼓勵受害者報告自己的遭遇。然而,追蹤和起訴涉及到國際罪犯,這給執法造成不小的困難。

資訊安全公司McAfee威脅研究高級主任卡尼克(Abhishek Karnik)強調AI技術對人類情感可能具有的操控力。AI可以輕鬆仿製人類聲音,從而建立起強烈的情感連接,混淆受害者的視聽,從而行騙。

儘管一些AI公司嚴禁該類技術的使用,但也有公司允許用戶上傳語音片段,從而生成令人信服的語音。這些片段可以從社交媒體或其他在線平台輕鬆獲取。

騙局的受害者之一,兒子威爾(Will Trapp)十分困惑詐騙公司如何獲取到自己的語音片段,因為他並不是社交媒體重度使用者,且自己的帳號都處於私密狀態。唯一想到的可能,就是自己創作並上傳網絡上的音樂。

新聞來源:舊金山世界日報社授權使用

author avatar
桃園電子報
桃園電子報綜合性新聞網站,報導最多地方新聞、即時追蹤全國重大事件、時刻關心您在乎的事。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持