OpenAI不再只靠Nvidia 首度大規模租用Google AI晶片
記者鄧天心/綜合報導
OpenAI近期開始租用Google的AI專用晶片(TPU),是OpenAI首次大規模採用非Nvidia的AI硬體,過去OpenAI高度依賴Nvidia GPU做模型訓練與推論,但近期生成式AI應用爆發,OpenAI對需求飆升,雖然有合作夥伴微軟的雲端資料中心,但Nvidia高階GPU供不應求、成本高昂,OpenAI想擴展服務也遇到瓶頸。

延伸閱讀:
Meta成立超級實驗室挖角11位AI大神 迎戰OpenAI、Google
工研院推動台灣AI技術應用與升級 算力布局、產業合作成決勝關鍵
Google TPUs成為新選擇 降低成本與風險
Google自家研發的TPU(Tensor Processing Unit)原本僅供內部使用,近年才開始對外開放,OpenAI為了分散硬體供應風險、壓低推論運算成本,選擇租用Google TPU,並提升運算效率,據悉,OpenAI雖然租用Google Cloud TPU,但Google並未開放最先進的TPU給OpenAI。
產業競合新局 從競爭到合作
原本OpenAI與Google是競爭對手,OpenAI成為Google Cloud AI晶片客戶,對OpenAI而言,則是降低對單一供應商(Nvidia、微軟)的依賴,強化議價能力,並為未來自研AI晶片鋪路,預計2026年量產AI晶片,而對Google而言,則是積極推動自家AI硬體商業化,同時也吸引蘋果、Anthropic、Safe Superintelligence等大客戶。
Nvidia雖仍主導高階AI晶片市場,但Google、微軟、亞馬遜等雲端巨頭積極推廣自研AI硬體,對AI服務業者而言,如何靈活調度多家供應商資源、優化成本與效能,將成為未來競爭關鍵。
瀏覽 166 次