Google Cloud與NVIDIA合作 助攻生成式人工智慧發展

記者/Shirley

Google Cloud與NVIDIA宣布推出新的人工智慧基礎架構和軟體,NVIDIA創辦人暨執行長黃仁勳表示,與Google Cloud的擴大合作將幫助開發人員加速他們在基礎架構、軟體和服務等方面的工作,從而提高能源效率並降低成本。Google Cloud 執行長 Thomas Kurian則表示,許多Google 產品都是基於NVIDIA GPU 建構和提供服務的,許多客戶正在尋求 NVIDIA 的加速運算,以高效開發大型語言模型,從而推動生成式人工智慧的發展。

Google Cloud與NVIDIA擴展合作夥伴關係,提供客戶建立和部署大規模生成式人工智慧模型。(圖/NVIDIA提供)

Google PaxML支援NVIDIA加速運算

Google用於建立大型語言模型(LLM)的框架PaxML,已經優化支援NVIDIA加速運算,現在開發人員能夠使用 NVIDIA H100 和 A100 Tensor Core GPU 進行實驗,Google DeepMind和其他Google研究人員是首批使用PaxML與NVIDIA GPU進行探索性研究的團隊。兩家公司還宣布Google透過Google Dataproc服務將無伺服器Spark與NVIDIA GPU整合,有助資料科學家加速Apache Spark的工作負載,以準備進行人工智慧開發所需的資料。

更多新聞:人工智慧入門術語 懶人包一次看!

快速開發生成式人工智慧大型語言模型

NVIDIA和Google雙方發布多項軟硬體產品,包括Google Cloud將在由NVIDIA H100提供動力的A3虛擬機器上運行,預計下個月正式推出,與前一代相比,A3虛擬機器的訓練速度提高了3倍,網路頻寬也有顯著的提升。NVIDIA H100 GPU 為 Google Cloud 的Vertex 人工智慧平台提供動力 ,預計未來幾週內,在 VertexAI上將普遍可用H100 GPU ,使客戶能夠快速開發生成式人工智慧大型語言模型。

可提供高速和大規模進階訓練工作負載

Google Cloud將成為世界上首批能夠使用NVIDIA DGX GH200 人工智慧超級電腦的公司之一,該超級電腦搭載了NVIDIA Grace Hopper 超級晶片,可用於探索其在生成式人工智慧工作負載方面的能力。NVIDIA DGX Cloud人工智慧超級運算和軟體將於Google Cloud上運行,可供客戶直接從網頁瀏覽器中使用,以提供高速和大規模的進階訓練工作負載。

首家NVIDIA L4 Tensor Core GPU雲端服務供應商

Google Cloud Marketplace上提供NVIDIA AI Enterprise, 使用者能使用NVIDIA AI Enterprise雲端原生軟體平台,可簡化開發和部署企業級應用程式,包括生成式人工智慧、語音人工智慧、電腦視覺等。Google Cloud隨著G2 虛擬機器的推出,成為首家提供NVIDIA L4 Tensor Core GPU的雲端服務供應商。當客戶從CPU切換至L4 GPU以處理人工智慧影片工作負載,可提升高達120倍的效能、效率提升99%。L4 GPU廣泛用於影像和文字的生成,以及虛擬桌面基礎架構( VDI )和人工智慧加速的音訊/影片轉碼。

瀏覽 5,098 次

覺得不錯的話就分享出去吧!

發佈留言

Back to top button