鴻海擬於5月底前開源繁中AI模型 FoxBrain下一步劍指自駕車

記者李琦瑋/綜合報導

鴻海研究院在今年3月宣布推出首款繁體中文AI大型語言模型(LLM)FoxBrain,為700億參數語言模型,宣稱具備優秀的繁體中文能力、在數學與推理領域表現出色,鴻海近期準備在5月底前開源FoxBrain,包括8B及70B模型,供外界使用,下個版本將會用於自駕車

鴻海、HONHAI、FOXCONN
鴻海研究院計畫在5月底前開源繁中AI模型「FoxBrain」,下個版本將會用於自駕車。(資料圖/記者李琦瑋 攝)

鴻海首款繁體中文AI語言模型功能一次看

鴻海研究院指出,人工智慧研究所在FoxBrain訓練過程中,使用120張NVIDIA H100 GPU,並透過NVIDIA Quantum-2 InfiniBand網路進行擴展,僅花約4周的時間完成,相較於近期其他公司所推出的推理模型,以更高效率,更低成本的模型訓練方式為臺灣AI技術發展樹立新里程碑。

延伸閱讀:鴻海研究院推首款繁體中文AI大型語言模型 未來將對外開源

FoxBrain採用Meta Llama 3.1為基礎架構,擁有70B參數,在 TMMLU+測試資料集,大多數的領域優於國內相同規模的Llama-3-Taiwan-70B,尤其在數學與邏輯推理方面展現卓越能力;在訓練過程中,NVIDIA公司提供Taipei-1超級電腦的支持以及技術諮詢,使鴻海研究院透過使用NeMo順利完成模型訓練。

鴻海研究院表示,FoxBrain原為內部應用而設計,涵蓋數據分析、決策輔助、文書協作、數學、推理解題與代碼生成等功能,後續將對外開源分享;該模型不僅展現了強大的理解與推理能力,還能針對臺灣使用者的語言風格進行優化,並在數學與邏輯推理測試中表現出色。

鴻海研究院提到,在測試結果方面,FoxBrain於數學領域較基礎模型Meta Llama 3.1全面提升,相較於目前最好的繁體中文大模型Taiwan Llama在數學測試中取得顯著進步,並在數學推理能力上超越Meta目前已推出的同等級模型,雖與DeepSeek的蒸餾模型仍有些微差距,但表現已相當接近世界領先水準。

做本土大型語言模型的原因

鴻海人工智慧研究所所長栗永徽14日出席思科舉辦的「臺灣AI策略發展高峰會」時表示,鴻海未來將透過導入AI大型語言模型,優化智慧製造、智慧電動車、智慧城市等3大平台的數據分析效率,讓FoxBrain成為驅動智慧應用升級的重要引擎,進一步提升公司營運效益。

栗永徽說,自主開發大型語言模型的原因主要有4大考量,第一,「語言文化不對等」,國際模型對臺灣用語理解有限,難以處理在地語彙、文化、法規;第二,「資訊主權及資安風險考量」,國際模型多在境外運算,有資安疑慮,內部核心技術、機密有外洩風險;第三,「可控性跟在地調適能力的掌握」,可以因應企業需求,快速客製化;第四,臺灣要掌握資料主權和培育尖端的AI人才,並做好資料治理,才能保護本土企業的關鍵技術。

5月底前開源、FoxBrain下一步劍指自駕車

栗永徽說,為打造3大生成式AI平台,並在其上開發眾多AI Agent(AI代理),鴻海為此花20個月開發出臺灣第一套繁體中文且具推理能力的LLMFox Brain,預計5月底於Hugging Face社群發表並開源,包含8B與70B模型、相關技術文件。

栗永徽表示,目前FoxBrain 70B模型為1.0階段,可以做數據分析、程式代碼生成、決策輔助及文書協作,下一步預計蒸餾出8B小模型,2.0版本將朝向100B發展,能夠理解3大平台的問題,增強學習能力,下個版本將用於自駕車,除了可以自動駕駛外,還能將駕駛行為變為AI可解釋性,應用於輔助駕駛中,可解釋為什麼停下來、往前行駛或轉彎,也允許使用者向車子提問,提升用戶體驗和信任度。

瀏覽 254 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button