Google打算賣AI晶片給Meta 分散風險、降低輝達依賴
記者鄧天心/綜合報導
Google被傳正嘗試說服包括社群媒體業者Meta及多家大型金融機構,在自有資料中心部署自研AI晶片TPU,意在AI晶片市場進一步挑戰輝達(NVIDIA)主導地位。
根據Google近期與Meta及部分大型金融機構洽談合作,內容包括在這些客戶自有資料中心導入Google設計的TPU(Tensor Processing Unit),以及在公有雲租用TPU運算資源兩種模式,若合作成形,企業可在自家機房運行AI工作負載,同時搭配Google Cloud,形成在地部署與雲端並行的架構,被視為有助兼顧效能、資通安全與法規遵循需求。

延伸閱讀:
Google評估相關商機可觀,其中與Meta的協議規模可能達數十億美元,合作期程將橫跨數年,反映大型客戶有意分散AI晶片供應風險,對金融機構、高頻交易業者等客戶而言,在自有機房部署TPU,有助將敏感資料保留在內部環境,同時導入大型AI模型分析能力,降低完全仰賴外部雲端的疑慮。
近年AI熱潮推升資料中心對高階GPU需求,輝達憑藉H100等產品,在雲端服務供應商與大型網路平台中占有關鍵地位。Google過去一方面在自家服務(搜尋、YouTube、Gemini等)大量使用TPU,另一方面在Google Cloud提供輝達GPU,形成並行策略,如今試圖將TPU擴大為可直接部署在客戶機房的選項,被視為更積極牽動輝達市占的布局。
若超大型客戶在基礎設施層採用多家AI晶片供應商,可能改變目前以輝達為主的生態結構,並提高雲端服務商與終端客戶在成本與技術選擇上的談判空間。研調機構預估,主要雲端服務業者未來幾年在AI相關資本支出將維持高成長,吸引更多業者投入自研或客製化AI晶片,AI運算市場朝多元架構發展的趨勢愈趨明顯。
Google近期並宣布推出第7代自研TPU晶片「Ironwood」,將在Google Cloud上線,鎖定生成式AI與大規模模型訓練等高強度運算應用,Google的Gemini、影像模型Veo與Imagen,以及新創公司Anthropic的模型,都會在TPU上運行,並透過大規模TPU叢集(superpod)因應龐大運算需求。
Google一方面在雲端強化TPU服務,一方面尋求把TPU擴展到企業自有資料中心,AI晶片戰略正從內部優化轉向對外授權與生態經營。未來Meta與金融機構等潛在合作案進展,以及其他雲端服務商、自研晶片業者的動向,預料將持續牽動AI晶片產業版圖與相關供應鏈發展。
資料來源:The Information
![]()






