輝達發布全新開放式自駕 AI 模型 加速「實體 AI」與自動駕駛技術發展

記者黃仁杰/編譯

輝達(Nvidia)週(2)一公布多項新基礎設施與 AI 模型,持續布局「實體 AI(physical AI)」技術版圖,目標打造能感知並與真實世界互動的運算平台,包括機器人與自動駕駛車輛。

輝達
輝達(Nvidia)公布多項新基礎設施與 AI 模型,持續布局「實體 AI(physical AI)」技術版圖。(圖/科技島資料照)

在美國聖地牙哥舉行的 NeurIPS AI 大會上,輝達發布 Alpamayo-R1,這是一款專為自動駕駛研究打造的開放式推理視覺語言模型(VLM),官方表示,這是全球第一款聚焦自駕領域的「視覺語言動作模型」。視覺語言模型能同時處理影像與文字,協助車輛「看懂」周遭環境,並根據所感知的資訊進行決策。

Alpamayo-R1 建構於輝達的 Cosmos-Reason 推理模型之上,後者強調「先思考再回答」的能力。Cosmos 模型家族最早於 2025 年 1 月推出,8 月又擴大釋出更多模型。

輝達表示,這類具備推理能力的視覺模型,是業界邁向 Level 4 自動駕駛的關鍵,可協助車輛具備更貼近人類的「常識式」判斷能力,處理複雜且具情境性的行車決策。

Alpamayo-R1 已開放於 GitHub 與 Hugging Face 取得。

除了新模型,輝達也同步於 GitHub 上架 Cosmos Cookbook,內容涵蓋教學指南、推論資源與後訓練流程等,以協助開發者針對自家場景更有效利用 Cosmos 模型。包含資料篩選、生成式合成資料與模型評估等完整步驟。

這些宣布反映輝達全速推進「實體 AI」策略。執行長黃仁勳多次表示,下一波 AI 將從數位跨向實體應用。輝達首席科學家 Bill Dally 過去接受 TechCrunch 訪問時也強調,機器人與實體 AI 是公司未來的重要方向。

Dally 當時說:「最終,機器人將成為世界主要的行動者,而我們希望成為所有機器人的大腦。」他指出,要實現這個目標,開發關鍵技術勢在必行。

來源:techcrunch

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button