OpenAI自製AI晶片2026問世!聯手博通、台積電挑戰輝達霸主地位
記者鄧天心/綜合報導
OpenAI打算在2026年推出首款自家設計的AI加速器晶片,這次是和博通共同設計,交給台積電負責生產,初期只會用在OpenAI自己內部,不會對外販售,這樣的做法主要是想把推理運算的成本壓低、效能掌握在自己手裡,也能降低對Nvidia供應鏈的依賴,遇到市場短缺或價格飆漲時能多一套解決方案。
因為這一兩年生成式AI爆紅,OpenAI的各種模型和服務用量大增,訓練和推理需要大量算力,導致Nvidia長期主導AI硬體市場,OpenAI也被供應鏈和成本壓力綁住,自家晶片讓OpenAI能根據自己真正的需求,像是大量矩陣和向量計算、記憶體流量等,優化電路設計,提升效率、降低總成本(TCO),不只是省錢,還能讓硬體和軟體配合得更好。
這種「軟硬整合」的做法,其實和Google、Amazon、Meta現在力推自研AI晶片的方向完全一樣,就是要有自己的算力保障,同時在競爭激烈的AI市場站穩腳步。

延伸閱讀:
美國第一夫人主持白宮AI教育峰會 微軟、Google、OpenAI齊表態投資校園
OpenAI跟博通這次是真正「聯手設計」AI加速器,訂單超過100億美元,坊間傳聞這是針對博通自家「XPU」平台客製,把AI加速核心、網路晶片、機櫃(rack)全包進來,一次佈局大規模算力。台積電會負責晶片生產流程,先小量試產、2026全面放量。這批新晶片只會優先部署在OpenAI自己的雲端服務內部,不會對外銷售,用來加強推理運算能力,減緩對Nvidia等現有供應商的依賴。
雖然OpenAI和博通還沒公布晶片詳細規格,但產業界流出的情報透露,這顆加速器會採「systolic array」設計,這是一種特別有效率處理矩陣、向量計算的架構,專門對應大語言模型(LLM)和多模態AI的工作負載。高頻寬記憶體(HBM)幾乎是標配,可能用HBM3E或HBM4,確保大模型推理時不會被記憶體瓶頸卡住。甚至還有博通自家的網路晶片整合進機櫃,能提升整個叢集的溝通效率跟功耗密度,加快大規模系統部署。
實際上,OpenAI一開始還是不會全棄用Nvidia與AMD加速器,會混合部署、分散風險,先讓自研晶片負責推理運算,把最高頻、最可預測的工作量搬過去用自有平台,這也讓OpenAI在與主流供應商談判時,更有話語權、壓低成本。
這個案子也帶動博通2026年AI業務大幅成長,外界解讀OpenAI就是那個大客戶,光一個訂單規模可能就包含數十萬到百萬晶片,能支撐OpenAI在高峰時段的超大服務流量。
不過要提醒的是,一整套AI晶片專案牽涉到架構設計、EDA、封裝、供應鏈協作,還有HBM和先進封裝原料充足與否,量產時程、成本曲線都還有不確定因素,目前OpenAI還沒正式公開首顆晶片的詳細規格或量產路線圖,真正的成果還得等官方公布。
如果這批加速器順利量產,OpenAI未來不但能用更低成本跑更大模型,也有機會從「重度用戶」晉升為「基礎設施玩家」,加快新品測試和模型更新的速度。同時會讓AI硬體市場愈來愈多元,各家巨頭為自己客製算力,和通用GPU市場形成既互補又競爭的新局面。