Meta推出超強語音AI 讓世界每種語言都能被自動辨識
記者鄧天心/綜合報導
Meta近日發表Omnilingual ASR自適應語音辨識模型,支援超過1600種語言,遠超OpenAI Whisper僅能處理的99種,更可利用「零樣本學習」讓AI現場學會新語言,推高理論支援數量達5400+,從語音科技競爭到文化平權,這是AI界難得一見的里程碑。
Meta此次釋出的Omnilingual ASR,是業界首套能直接支援1600多種語言的語音AI技術平台,最大亮點是內建「零樣本學習」機制,只要提供幾個語音+文字的例子,AI現場就能辨識新語言,徹底突破以往必須大量資料才能訓練AI的限制,可泛用於全球5400多種有書寫系統的語言,不只適合主流語種,也首次開放給少數民族、瀕危語言、方言。

延伸閱讀:
AI成職場標配!旭聯科技發表6雲端產品 打造數位人才培育生態系
Omnilingual ASR不但將模型、訓練資料與程式碼統一採用「Apache 2.0」開源授權,企業可直接用於商業部署、加工優化,無需另付使用費或面對Llama以往軟性限制,徹底降低跨語市場語音產品的門檻。
先前AI語音多侷限在大語種、本地化限制多、平台收費高,Meta此舉等同宣告:「世界上每一種語言,都值得被科技理解。」技術團隊強調:「沒有任何AI能預先囊括地球所有語言,但Omnilingual ASR讓社群能自己動手完善。」這對全球各地NGO、學術團隊、語言保存工作者都是重大利多。
今年Meta大型語言模型Llama 4評價不佳,反思後重新定錨AI路線,執行長馬克·祖克柏甚至砸下重金延攬Scale AI創辦人 Alexandr Wang 為首席AI長,大舉投資自主AI研發,Omnilingual ASR成了Meta重回開放、社群、包容性AI舞台的戰略代表作。
這套系統集合自監督wav2vec 2.0、語音-文字解碼、即時學習新語言等前沿技術,模型大小彈性(300M~70億參數),即便是偏鄉學校也可利用較小模型於一般設備部署。程式碼與資料全數上傳Github及Hugging Face,只需一行指令即可安裝使用。
以前想讓AI會本地語音,幾乎不可能,現在Meta Omnilingual ASR 把門檻徹底打破,無論是跨國教育、智慧客服、障礙輔助或地方語言都能被保存,保存古代的智慧供後人學習。
資料來源:AI at Meta、VentureBeat
![]()






