AI處理器市場軍備競賽升溫 預估2033年將飆破3,238億美元
記者黃仁杰/編譯
全球AI算力競賽在2025年全面升級,科技巨頭今(2025)年投入的基礎設施資本支出總額預估高達3,800億美元,帶動AI處理器市場呈現前所未見的硬體軍備戰。除了GPU持續主導市場,業界也明顯轉向客製化ASIC與邊緣推論晶片,顯示AI硬體生態系正快速走向多元化與成熟化。
根據市調機構 Astute Analytica 最新報告指出,全球AI處理器市場在2024年規模達437億美元,預估至2033年將躍升至3,238億美元,2025至2033年的年複合成長率高達24.9%。推動市場高速成長的核心動力,集中在更高的晶體數、更快的浮點運算與更先進的封裝與記憶體技術。

Nvidia、AMD高階AI晶片競逐 電晶體密度邁入「千億等級」
NVIDIA 旗下最新 Blackwell B200 GPU 採用2080億顆電晶體,v100增加逾一倍,AI算力更從4 PFLOPS 大幅提升至20 PFLOPS。AMD 也以 MI300X 加速器應戰,搭載1530億顆電晶體,強化大型模型的訓練需求。創新不僅侷限在GPU架構,AWS Trainium2 單顆可提供1.3 PFLOPS,結合 UltraServer 叢集後可達83.2 PFLOPS FP8算力。Google 最新 Trillium TPU 相較前代v5e提升4.7倍運算效能,單一 Pod 可以256顆晶片組成叢集,提供 234.9 PFLOPS BF16 算力。
HBM3e 成 AI 最大瓶頸 供不應求延至 2026
在技術領域中,高頻寬記憶體(HBM3e)已成為AI處理器性能擴張的核心瓶頸之一。NVIDIA B200 具備192GB HBM3e、頻寬達8 TB/s;H200 則配備141GB HBM3e、頻寬4.8 TB/s。AWS Trainium2 採用96GB HBM3、Google Trillium 配備32GB HBM,皆為支撐更大型模型所必須。供應鏈面向中,三星推出 HBM3e 12H,單顆可達36GB、頻寬1280 GB/s;SK 海力士預估2025年底HBM產能將達每月17萬片,但已宣布2025全年產能售罄、2026亦呈高度吃緊,顯示HBM供需極度緊縮。
台積電CoWoS產能翻倍仍不足 AI 晶片封裝成全球瓶頸
先進封裝能力不足也成為限制AI處理器供應的關鍵因素。TSMC 2025年底的CoWoS月產能預估可達7萬至8萬片,較2024年底的3.5萬至4萬片翻倍,但仍不足以滿足全市場需求。三星在2024年中段的HBM3e 12H TSV良率僅約40%至60%,凸顯製程挑戰依然巨大。全球限制導致NVIDIA資料中心GPU交期在2024年雖改善,仍需等待30至40週;而Intel 已將Gaudi 3 2025年的出貨預估調整為20萬至25萬顆。TrendForce 預估HBM在2025年將占全球DRAM產值超過三成,成為記憶體產業新的價值主軸。
科技巨頭豪砸 3,150 億美元 企業AI 基建戰升級
在企業投資方面,美國四大雲端巨頭正以破紀錄的速度擴張AI算力。AWS 在2025年的資本支出預計達1,000億美元,Microsoft 預估800億美元、Google 約750億美元,Meta 也將投入600億美元。四大集團合計投資規模高達3,150億美元,並直接推升AI處理器採購規模,例如 Meta 確認採購35萬顆 NVIDIA H100,AMD 亦將2024年資料中心AI GPU收入預期上調至至少45億美元,相較之下,Intel Gaudi 3 在2024年營收預估不到5億美元。
高效能網路互連成關鍵 AI 叢集需如「超級電腦」運作
在互連技術方面,AI處理器正向統一超級電腦架構邁進。NVIDIA NVLink 5.0 雙向頻寬達1.8 TB/s,是 PCIe Gen5 的14倍;GB200 NVL72 機櫃的NVLink Spine 數據傳輸速率可達130 TB/s。Google Jupiter 網路架構可提供13 Pbps 頻寬;Trainium2 的 NeuronLink 設計可支援單次擴展至10萬顆晶片叢集。這些高效能互連技術讓大型模型可在數千顆處理器間同步運算,無需承受效能損耗。
差10倍!AI 伺服器機櫃能耗暴增成隱憂
能源需求也成為AI處理器部署的重大挑戰。現代AI伺服器機櫃功率需求已達40–100 kW,遠高於傳統機櫃的5–15 kW,相當於一整層百貨公司的照明或40至50台冷氣同時運轉,一座配備高階 GPU 的資料中心,其耗電量可等同一座小型城市。單顆 NVIDIA B200 GPU 的TDP高達1000瓦,帶動全球資料中心用水量在2025年預計達560億公升;Microsoft 透露其AI資料中心每kWh耗能所需用水量介於1.8至12公升不等。業界正以能效為優先,例如 Groq LPU 的推論能效僅 1–3 焦耳/Token,相較傳統GPU 推論的10–30 焦耳大幅降低。
AI處理器售價維持高檔 HBM 成本壓力持續攀升
在價格方面,AI處理器市場仍維持高價環境。NVIDIA H100 售價約25,000至40,000美元,H200 約30,000至40,000美元;Cerebras CS-3 系統售價更介於200至300萬美元。雲端租用價格方面,H100 每小時租金介於2.1至5美元。Groq 採按 Token 計費,Llama 3 70B 推論每百萬輸入Token 收費0.59美元、輸出Token 為0.79美元。HBM3e 記憶體相較DDR5價格高出約五倍,也強化整體成本壓力。
模型持續擴張 AI處理器架構加速演進
由於模型規模持續擴大,AI處理器架構也同步演進。Cerebras WSE-3 可支援高達24兆參數的模型;NVIDIA Blackwell 架構可支援10兆參數;Groq 可提供12.8萬Token的超長上下文窗口。推論速度方面,Llama 3 70B 在Groq LPU上的速度可達284 Token/s,推 speculative decoding 後可達1,660 Token/s,遠高於H100執行Llama 2/3 約100 Token/s 的典型表現。
從國家戰略到邊緣設備 AI晶片遍及所有科技層級
在需求端,各國政府正掀起新一波AI基礎建設競賽。法國宣布投入1,090億歐元(約1,270億美元)推動AI;沙烏地阿拉伯公共投資基金將投資400億美元;日本在2024年核定37億美元基金,增強AI與半導體供應鏈能力。在企業領域,AWS 啟動 Project Rainier,打造由數十萬顆 Trainium2 組成的大型叢集,投入規模不亞於政府計畫。
同時,邊緣運算全面擴張。Microsoft Copilot+ PC 需至少16GB RAM,Intel Lunar Lake NPU 指標超過40 TOPS,QUALCOMM Snapdragon X Elite NPU 達45 TOPS。Canalys 預測2024年具AI功能的PC出貨量將達4,800萬台。AI算力如今正滲透從資料中心到行動裝置的每一層技術堆疊,形成全面性的市場成長動能。
![]()






-390x220.jpg)