訓練AI模型最高階晶片 Nvidia推出新一代H200圖形處理器
編譯/李寓心
全球知名的半導體公司Nvidia(輝達),日前推出一款H200的圖形處理器(GPU),用於訓練和部署各種人工智慧模型,其中還包括141GB下一代的「HBM3」內存,未來將有助於使用在AI模型的生成文字、圖像和預測分析等,以持續推動生成式AI發展的浪潮。
根據報導,Nvidia新推出的GPU為OpenAI用於訓練最先進的大型語言模型GPT-4晶片H100的升級版,是許多大型企業、新創公司和政府機構,皆在相互爭奪的限量晶片。因為從Raymond James調查顯示估計,H100晶片的成本,約25,000美元至 40,000美元不等,同時需要數千個晶片運作,才能在「訓練」的過程中,創建最大的AI模型。
新一代GPU的優勢
Nvidia表示,H200的升級關鍵在於包含141GB的下一代「HBM3」的內存,可幫助晶片執行「推算」功能,或在經由訓練後使用大型語言模型生成文字和圖像等。此外,H200使用Meta的大型語言模型Llama 2,進行輸出測試的速度,約H100的2倍,同時也與H100相容,代表已經在使用前一代模型,進行訓練的AI公司,無需更改伺服器系統或軟體,即可使用最新版本。
未來Nvidia的願景
該公司表示,預計H200在2024年第二季開始出貨,同期競爭的還將包括AMD的MI300X GPU架構,同樣比前一代產品擁有更多內存的優勢。如今市場對GPU的需求旺盛,未來Nvidia將從兩年發布一次的節奏,轉向一年一次的模式,並暗示在2024年即將推出Blackwell架構的B100晶片,有別於現在基於Hopper架構的H100和H200。
資料來源:CNBC
瀏覽 3,094 次