Google DeepMind新AI上線 機器人學會「上網找答案」

記者黃仁杰/編譯

Google DeepMind 宣布,其最新升級的 AI 模型讓機器人能完成更複雜的任務,甚至能透過網路搜尋來獲取資訊支援。該公司機器人部門負責人 Carolina Parada 在記者會上表示,新系統能讓機器人在實際行動前「思考多個步驟」,從而展現更高層次的理解與推理能力。

229978272 1200
Google DeepMind 宣布,其最新升級的 AI 模型讓機器人能完成更複雜的任務,甚至能透過網路搜尋來獲取資訊支援。(圖/123RF)

這套系統由新推出的 Gemini Robotics 1.5 與 Gemini Robotics-ER 1.5(具身推理模型)共同驅動,屬於今年3月發布模型的升級版本。過去,機器人能處理的多是單一動作,如摺紙或拉開拉鍊,而新模型則可執行多任務,例如依照深淺分開衣物、根據倫敦當地天氣幫忙打包行李,甚至能透過網路搜尋當地垃圾分類規則,幫助人們區分垃圾、堆肥與可回收物。

Parada指出:「以往模型一次只能執行單一步驟指令,雖然表現不錯,但現在我們邁向真正的理解與問題解決能力,讓機器人能更靈活地處理現實世界的任務。」

Gemini Robotics-ER 1.5 讓機器人能建立對周遭環境的理解,並使用 Google 搜尋等數位工具獲取額外資訊,再將這些結果轉化為自然語言指令交由 Gemini Robotics 1.5 執行。後者則結合視覺與語言理解能力,依序完成任務。

除了單機運作,升級後的 Gemini Robotics 1.5 還能讓不同機器人「互相學習」。DeepMind 測試發現,在 ALOHA2 機器人(雙機械臂)上訓練的任務,可以直接套用到雙臂的 Franka 機器人,甚至是 Apptronik 的人形機器人 Apollo。軟體工程師 Kanishka Rao 表示,這意味著「一方面可用單一模型控制不同機型,包括人形機器人;另一方面,一台機器人學到的技能,能無縫移植到其他機器人身上。」

Google DeepMind 同步宣布,將透過 Google AI Studio 的 Gemini API 向開發者開放 Gemini Robotics-ER 1.5,而 Gemini Robotics 1.5 則僅限部分合作夥伴使用。

來源:The Verge

Loading

在 Google News 上追蹤我們

發佈留言

Back to top button