國際

AI 生成聲音成電話詐騙新工具 7 成的人難辨真假

Vendor Icon

菱傳媒

6 月. 13, 2023

AI生成聲音軟體方便人們使用,卻遭犯罪份子利用。合成照片非犯罪工具,取自clipchamp、Resemble.ai、Play.ht網頁 

(王秋燕/綜合外電報導)人工智慧(AI)生成聲音已成為詐騙集團犯罪新工具,利用 AI 模仿親人聲音的詐騙案陸續在美國被舉報,而根據最新調查,高達 70% 的人無法確認來電是 AI 或是真人聲音。

網路安全公司 McAfee 旗下的 McAfee Labs 威脅中心針對美國等全球主要 9 個國家、7000 名受訪者進行調查後發現,25 的受訪者曾親身經歷或知道有人曾遭遇 AI 聲音詐騙案;70% 的受訪者認為無法分辨來電是真人或 AI。

美國官方警告,利用 AI 生成孫子等親人的聲音,以電話詐騙祖父母的案件正日益增加。

現在網路上已經夠搜尋到免費的 AI 生成聲音的軟體,只需要提供一個真實的樣本,只需要幾秒鐘,就能夠創造 AI 複製聲音,而詐騙犯罪份子能夠輕易自網路上搜索到真實聲音樣本。

美國 Blackbird.AI 行政總裁哈立德(Wasim Khaled)接受法新社訪問時指出,AI 聲音複製技術已到達與真人對話高度相似水準,只需一個細小的聲音檔案,數秒便能生成高度擬真的留言或語音訊息,使行騙者更有效地騙取資訊及金錢。

美國加州大學柏克萊分校資訊系教授費力德(Hany Farid)表示,由於 AI 輕易生成高模仿度聲音,近乎全數網路用戶成為類似騙局的目標。有專家表示,AI 聲音詐騙十分猖狂,或有需要發展全新科技,讓民眾確認來電者身份。
 

菱傳媒原始網址:AI 生成聲音成電話詐騙新工具 7 成的人難辨真假

author avatar
菱傳媒
《菱傳媒》是一家網路媒體,由一群資深與專業的媒體工作者組成。 我們會放眼國際、鎖定國內外政經議題,深入調查剖析,搶進現場,踢爆弊端,滿足讀者知的權利,堅守媒體第四權。
donate plan

充電計畫

喜歡這篇文章嗎?歡迎幫作者充電,好內容值得更多人支持

瞭解詳情
  • 複製
  • 贊助
  • 稍後閱讀