Meta推「AssetGen 2.0」一行文字AI幫你3D建模 還比前一代更逼真
記者鄧天心/綜合報導
Meta於8日發表AssetGen 2.0,能讓3D模型變得更細緻,生成方式也更簡單,與前一代相比,AssetGen 2.0在細節、真實度和紋理上大幅優化,解決了過去3D模型畫質粗糙的問題,這套新系統採用單階段3D擴散模型技術,使用者只需輸入簡單的文字提示,就能快速生成高品質的3D模型,無需建模經驗,Meta也計畫在2025年底將這項技術整合到Horizon Worlds桌面編輯器,目標要讓3D創作更普及。

更多新聞:
全球50大最有價值企業出爐 台積電衝進前十位居亞洲之首
國科會推AI體感偵測與棒球鷹眼系統 登場松菸大秀運動科技
中國生成式AI專利數量全球居冠 這7家企業如何改變AI市場格局?
文字也能生成模型 紋理更細緻
根據Meta的官方部落格指出,技術主要靠兩個核心模型生成:一個專門生成3D網格模型,另一個TextureGen模型負責生成高品質紋理,能直接應用於專業製作,與前代AssetGen 1.0相比,2.0版本能直接從文字或圖像提示生成3D模型,無需多步驟處理。
另外Meta透露,目前正在開發「自動生成完整3D場景」的功能,未來使用者只需輸入簡單的文字或圖像提示,便能在數分鐘內生成複雜的3D環境,預計將為設計師和開發者帶來更多創作的可能性。
生成3D模型的賽道上還哪些選手?
除了Meta正在這個賽道上努力之外,先前中國的AI專家李飛飛(Fei-Fei Li)領導的World Labs團隊,是該領域的先驅,於2024年底時,World Labs發布了最新的AI技術,能將單張照片或文字描述轉換為可互動的3D場景,不僅能重建場景的結構和物件,還有真實感與視覺一致性,讓使用者能在網頁上自由瀏覽、調整視角,甚至進行景深模擬,World Labs目前已獲得2.3億美元資金,並計劃於2025年推出首款產品,預計將加速虛擬世界與3D內容產業的發展。
此外,學術界也有多項突破。例如DreamScene、PanoDreamer、DreamScene360等AI模型,已能根據用戶輸入的自然語言描述,自動生成包含多個物件與複雜環境細節的完整3D空間。
瀏覽 136 次