國際

AI生成聲音成電話詐騙新工具 7成的人難辨真假

Vendor Icon

菱傳媒

6月. 13, 2023

AI生成聲音軟體方便人們使用,卻遭犯罪份子利用。合成照片非犯罪工具,取自clipchamp、Resemble.ai、Play.ht網頁 

(王秋燕/綜合外電報導)人工智慧(AI)生成聲音已成為詐騙集團犯罪新工具,利用AI模仿親人聲音的詐騙案陸續在美國被舉報,而根據最新調查,高達70%的人無法確認來電是AI或是真人聲音。

網路安全公司McAfee旗下的McAfee Labs威脅中心針對美國等全球主要9個國家、7000名受訪者進行調查後發現,25的受訪者曾親身經歷或知道有人曾遭遇AI聲音詐騙案;70%的受訪者認為無法分辨來電是真人或AI。

美國官方警告,利用AI生成孫子等親人的聲音,以電話詐騙祖父母的案件正日益增加。

現在網路上已經夠搜尋到免費的AI生成聲音的軟體,只需要提供一個真實的樣本,只需要幾秒鐘,就能夠創造AI複製聲音,而詐騙犯罪份子能夠輕易自網路上搜索到真實聲音樣本。

美國Blackbird.AI行政總裁哈立德(Wasim Khaled)接受法新社訪問時指出,AI聲音複製技術已到達與真人對話高度相似水準,只需一個細小的聲音檔案,數秒便能生成高度擬真的留言或語音訊息,使行騙者更有效地騙取資訊及金錢。

美國加州大學柏克萊分校資訊系教授費力德(Hany Farid)表示,由於AI輕易生成高模仿度聲音,近乎全數網路用戶成為類似騙局的目標。有專家表示,AI聲音詐騙十分猖狂,或有需要發展全新科技,讓民眾確認來電者身份。
 

菱傳媒原始網址:AI生成聲音成電話詐騙新工具 7成的人難辨真假

author avatar
菱傳媒
《菱傳媒》是一家網路媒體,由一群資深與專業的媒體工作者組成。 我們會放眼國際、鎖定國內外政經議題,深入調查剖析,搶進現場,踢爆弊端,滿足讀者知的權利,堅守媒體第四權。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持

瞭解詳情