更懂台灣用語!聯發科發表AI語音辨識模型 精準度高於Whisper
記者彭夢竺/綜合報導
聯發科旗下聯發創新基地(MediaTek Research)近日發表一款基於OpenAI Whisper的AI語音辨識開源模型MR Breeze ASR 25,該模型精準度相較OpenAI的Whisper提升近10%、中英語轉換表現增進56%,且更加理解台灣用語和口音,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。
「MediaTek Research Breeze ASR 25」模型以Apache 2.0條款釋出,是MR Breeze 系列第二代語音辨識開源模型,可以即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。

聯發創新基地負責人許大山表示,開源語音辨識模型雖然逐年進步,但是對於在地用語及口音的辨識度仍然不足,像是把「發生什麼事」聽成「花生什麼事」。
有鑑於語音辨識是AI應用的關鍵啟動功能,這一次特別釋出「聽得懂在地語言」的ASR模型MR Breeze ASR 25,精準度相較於OpenAI的Whisper提升近10%、中英語轉換表現則增進56%,並積極推進繁體中文AI的創新,以及模型於地端及裝置端的使用。
許大山指出,該模型有利於促進百工百業在各類創意AI領域應用,企業可以自由商用,目標是降低繁體中文AI開發門檻,協助智慧裝置、客服系統、醫療紀錄等應用場景加速普及。
據了解,聯發創新基地自 2025 年起,已經陸續開源全套繁體中文AI模型,包含整合視覺功能的語言模型(Visual Large Language Models,V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech,TTS),以及能調用外部資訊的函式呼叫(Function Calling)模型。
瀏覽 251 次