AI只需15秒語音就能生成複製!「語音引擎」技術打開潘朵拉盒子|專家論點【朱楚文】

作者:朱楚文(IC之音竹科廣播《科技領航家》主持人)

語音示意圖。圖片來源:123RF

你有想過只需短短 15 秒,你的聲音就能被 AI 複製出來嗎?OpenAI最近公布全新技術「語音引擎」(voice engine),居然只要任何人短短 15 秒的語音,就能被 AI 模仿聲音特徵、複製生成各種聲音文本,讓一般人根本難以分辨真假,再度引發討論!

Open AI在官網直接秀出生成範例,將一位男子的15秒語音,生成一模一樣講不同文本的聲音,甚至還將一位女子的聲音,生成各種不同語言,像是西班牙文、中文、德文。Open AI指出,這項技術除了可以協助語音朗讀,幫助無法閱讀或不想閱讀的人「唸」書吸取知識,還可以幫助短期因生病或各種原因失聲,卻又需要演講的人。甚至是聾啞人士,也可以透過這項技術選擇適合自己的聲音,以進行溝通。創作者也可以運用這項技術,把自己的創作生成各種語言版本。

不過想當然爾,這項技術雖然帶來突破和便利,卻也讓不少人擔心潛在危機。例如,如果被惡意使用,可能導致語音偽造、詐騙等問題,知名科技媒體 Wired 就指出,AI 生成的語音甚至逼真到可以通過銀行的語音認證系統,想想如果被詐騙集團盜用,真的蠻可怕的。

另外,隱私權問題也可能引起擔憂,我們的聲音資料會被濫用嗎?如果一旦被人冒充身分參與不法活動,我們該如何證明自己的清白?這問題可能政治人物、公眾人物等,可能會更加擔心,畢竟不久前就已經出現詐騙集團運用 AI 生成歌手影像,騙走歌迷數十萬元。而接下來,若在選舉中運用生成聲音進行抹黑造謠,這又該如何是好?

Open AI 在官網也坦白說,他們知道語音生成一旦遭到濫用,後果會不堪設想,所以他們目前沒有開放這樣的技術給大眾,只跟一小部分合作夥伴進行私下測試,包括教育科技公司 Age of Learning、AI 影片創作平台 HeyGen、醫療軟體開發商 Dimagi 等。

不過潘朵拉的盒子已經被打開了,這項厲害的技術,具備巨大的能量與潛力,卻也充滿殺傷性,接下來我們可能都需要預先想想,如果未來有一天,我們的聲音被 AI 複製,在網路上散佈謠言或進行詐騙,該怎麼處理?我們如何保護自己的聲音資料?這或許也需要政府出馬,來設立應有的規範了。

科技總是如此,為人類帶來便利,卻也產生風險與問題,如何平衡技術發展與個人隱私安全,將是我們這AI新工業革命時代的挑戰了。

瀏覽 740 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button