深偽技術再精進 聲音複製成犯罪者新寵

編譯/鄭智懷

資安公司Recorded Future近期推出最新研究報告,警告基於人工智慧(AI)技術發展的深偽(Deepfake)詐欺活動中,複製聲音已經成為犯罪者廣泛運用的新興技術,複製聲音即服務產品(VCaaS)也隨即成為暗網上熱門搜尋標的。

Recorded Future呼籲各界也應教育群眾以了解該技術的所帶來的威脅,藉此降低風險。(示意圖/123RF)

報告指出,複製聲音技術已經被證實可突破多重要素驗證(MFA)的防護、促進偽訊息傳播,以及提升社會工程(social engineering)攻擊之有效性。一方面,網路詐欺門檻因此拉低,吸引更多新手得以加入;另一方面,老手則可藉此降低成本,擴大行動頻率與規模,同時也提高詐騙成功率。其中以假冒身分、回電詐騙和語音釣魚是最常使用複製聲音技術之詐欺手法。

專家表示,由於廣受各界歡迎的聲音合成軟體Prime Voice AI(由英國人工智慧Eleven Labs開發)僅提供付費服務,網路犯罪者藉此在暗網出售付費帳戶,或是透過Telegram提供替代軟體,以此牟利。

儘管相關技術與服務成長飛速,分析結果發現聲音複製技術在犯罪活動領域仍然有相當的侷限性。該技術最有效的用途是提供勒索詐騙、假訊息與假冒身分等詐欺活動所需的一次性資料;至於即時通訊,或是產出非英文文本等,當前技術發展尚無法滿足。

Recorded Future呼籲,鑒於聲音複製技術在可預期的未來必然會更加進步,形成更大的威脅,各界應透過跨學科、跨領域的模式共同解決上述問題的挑戰。另外,就長期來看,各界也應教育群眾以了解該技術的所帶來的威脅,藉此降低風險。

資料來源:Recorded Future

瀏覽 482 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button