擺脫對輝達的依賴?傳OpenAI攜手博通推自研首款AI晶片

記者孫敬/編譯

根據外媒引用知情人士消息指出,OpenAI正與博通(Broadcom)合作開發自家的客製化AI加速器,降低對輝達的依賴,以及GPT系列模型的訓練與推論成本。

這項合作案的曝光,源於博通執行長陳福陽在財報電話會議透露,獲得了一筆價值高達100億美元的訂單,來自一位神秘客戶,外界普遍認為,這位客戶正是OpenAI。雖然博通習慣上不公開客戶名單,但其IP正是許多客製化雲端晶片的基礎,因此這項合作並不意外。

陳福陽表示,博通目前正服務三家XPU客戶,第四家也即將加入。「上個季度,其中一位潛在新客戶向博通下了訂單,我們因此將其認定為合格的XPU客戶。事實上,我們已經確保了超過100億美元、基於我們XPU的AI伺服器機櫃訂單。」

延伸閱讀:國家安全新戰略?美議員提案「GAIN AI法案」確保美國能優先取得AI晶片

OpenAI 123rf
OpenAI自己開發晶片主要投入訓練自己的AI模型。(圖/科技島資料照)

從晶片架構到供應鏈,博通如何助攻OpenAI

這段時間以來,市場一直有謠言稱OpenAI正在開發一款可取代輝達(NVIDIA)、AMD GPU晶片。據消息人士透露,這款自研晶片預計將在明年亮相,主要將用於OpenAI內部,而非對外銷售。

博通提供多項建立大規模AI運算系統所需的基礎技術,從用於晶片間數據傳輸的序列器-解序列器(SerDes),到擴展運算規模所需的網路交換器與共同封裝光互連技術(co-packaged optical interconnects)。OpenAI很可能將利用這些技術,並搭配博通的 3.5D eXtreme Dimension System in Package(XDSiP)技術來打造加速器。

這種架構在許多方面與超微(AMD)的MI300系列加速器相似。它將先進的運算晶粒(Compute tiles)堆疊在一個基板上,包含晶片的低階邏輯與記憶體控制器。這種模組化的方法,意味著客戶可以自行設計關鍵IP,而由博通提供其餘部分的技術支援。

博通最大的3.5D XDSiP設計可支援兩組3D堆疊、兩個I/O,以及多達12組HBM高頻寬記憶體,所有元件都整合在單一的6,000平方毫米封裝中。這項技術預計在明年開始出貨,與OpenAI的晶片上市時間點吻合。

由於博通將負責提供大部分的底層技術,OpenAI的晶片團隊便能專注於優化其核心運算架構,讓整個開發過程變得更為可行。這也是為什麼許多雲端服務供應商都傾向於與博通合作,因為這樣能讓他們將資源投入到其核心競爭力上,而非重複發明輪子。

資料來源:The Register

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button