不讓輝達專美於前 超微半導體推出新AI晶片

編譯/莊閔棻

超微半導體(AMD)在加州舉行的 Advancing AI 活動期間宣布推出適用於運行大型語言模型(LLM)的新加速器和處理器,提醒大家輝達(Nvidia)並不是唯一一家銷售人工智慧(AI)晶片的公司。 為了為AI模型提供動力,AMD、Nvidia和英特爾等公司已經陷入一場AI晶片的軍備競賽。 到目前為止,Nvidia 憑藉 H100 GPU 佔據大部分的市場,該 GPU被用於訓練 OpenAI 的 GPT 等模型。

超微半導體(AMD)在加州舉行的 Advancing AI 活動期間宣布推出適用於運行大型語言模型的新加速器和處理器。(圖/截取自The Verge)

Instinct MI300X 和 Instinct M1300A

據外媒報導,該晶片製造商終於推出用於訓練和運行大型語言模型(LLM)的MI300 系列產品,包括Instinct MI300X AI 加速器和 Instinct M1300A 加速處理單元 (APU)。該公司表示,MI300X的記憶體容量是先前M1250X版本的1.5倍,而這兩款新產品都比前代產品擁有更好的記憶體容量和更高的能源效率。AI 加速器主要是用來幫助開發AI模型,而APU則通常結合 CPU 和 GPU 實現更快的處理速度。

更多新聞:日本優先!黃仁勳:輝達將盡力滿足日本AI需求

比輝達H100 好 1.4

AMD 首席執行長蘇姿丰表示, MI300X「是世界上表現最好的加速器」。 她聲稱 MI300X 在訓練 LLM 方面可以媲美 Nvidia 的 H100 晶片,但在推理方面表現更好。該加速器在與 Meta 的700 億參數的 LLM  Llama 2一起使用時,還比 H100 好 1.4 倍。蘇姿丰指出,「隨著大型語言模型的規模和複雜性不斷增加,需要大量記憶體和計算。我們知道 GPU 的可用性是AI採用的最重要的驅動因素。」

與多家公司合作

不只強大,AMD 還將與多家公司合作,包括微軟、Meta和惠普。微軟技術長 Kevin Scott表示,微軟將把 MI300X 放入 Azure 虛擬機器中,並宣布,於 11 月首次發布的Azure ND MI300X 虛擬機器現已推出預覽版。而Meta 也宣布將在資料中心部署 MI300 處理器。此外,MI300A 也將為惠普企業在勞倫斯利佛摩國家實驗室建造的 El Capitan 超級電腦提供動力。 El Capitan 被認為是最強大的超級電腦之一,預計將提供超過 2 每秒浮點運算次數(exaflops) 的效能。

市場潛力雄厚

蘇姿丰表示,預計用於資料中心的MI300A APU將使潛在市場總額成長至450億美元。AMD表示,MI300A提供更高效能的運算、更快的模型訓練,以及30倍的能源效率提升。與H100相比,它的記憶體容量是H100的1.6倍。 它還具有統一記憶體,因此無需再從不同設備移動資料。

參考資料:The Verge

瀏覽 409 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button