AI模仿真人聲音恐淪詐騙工具 7成受訪者自認無法辨別

記者/陳士勳

AI(人工智慧)所生成聲音恐被不肖人士濫用,網路安全公司McAfee旗下的McAfee Labs威脅中心,日前針對7千名來自美國等全球主要9個國家的受訪者,調查後發現,竟有70%的受訪者認為自己無法辨別真人和AI聲音,更讓人擔憂若遇到詐騙集團藉AI模仿親人聲音進行誘騙,民眾是否有足夠能力應對?

有7成受訪者認為自己無法辨別真人和AI聲音。示意圖:123RF

McAfee Labs威脅中心表示,在今年5月公布調查中,對於美國等全球主要9個國家,共7000名受訪者,發現70%受訪者覺得自身無法分辨是真人或AI來電,更有25%受訪者曾親身經歷或知道有人曾遭遇AI聲音詐騙案。

現今市面上已有不少可生成聲音的AI模型,如微軟的「VALL-E」,微軟指出,用戶只要能提供3秒鐘的音訊,該模型便能模擬本人說話的聲音、語調及說話時情緒,就連音訊背景的「聲音環境」,也能如法炮製。

不過微軟對此也強調,由於VALL-E還可模擬音訊背景的「聲音環境」,如果用戶再添加來自不同場合,像講電話、搭乘交通工具、開車等背景音訊,接聽者會更加難以分辨,因此目前正開發檢測模型,區分該音訊是否經VALL-E合成,且制定相關AI原則,避免惡意濫用。

瀏覽 5,836 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button