AssetGen 1.0首先根據提示生成預期asset的多個2D圖像視圖,然后將圖像饋送到另一個生成asset的神經網絡。AssetGen 2.0則是一個單階段3D擴散模型,直接從文本提示生成資源,并直接在大型3D asset語料庫進行訓練。

中國AI網 2025年05月12日)Meta日前預告了全新的3D基礎模型AssetGen 2.0,而它將允許你通過文本和圖像提示創建高質量的3D asset。AssetGen 2.0由兩個由Meta開發的模型組成:一個用于生成3D網格,另一個用于生成紋理。它利用單階段3D擴散模型提供具有顯著改進細節和保真度的3D網格,確保3D asset具有非常精細的細節的幾何一致性。

簡單來說,AssetGen 2.0模型可以生成更高質量的3D asset,甚至是整個世界。

Meta預告AssetGen 2.0 AI模型:文本直接生成高保真3D資產  第1張

與AssetGen 1.0不同,AssetGen 2.0使用3D擴散進行幾何估計,并在大型3D asset語料庫進行訓練。對于紋理生成,它引入了全新的方法來改進視圖一致性、紋理繪制和增加紋理分辨率。

具體來說,AssetGen 1.0首先根據提示生成預期asset的多個2D圖像視圖,然后將圖像饋送到另一個生成asset的神經網絡。AssetGen 2.0則是一個單階段3D擴散模型,直接從文本提示生成資源,并直接在大型3D asset語料庫進行訓練。

Meta目前正在利用AssetGen 2.0創建3D世界,并計劃在今年下半年向Horizon創作者開放(Horizon Desktop Editor)。

這家公司表示,希望AssetGen 2.0能夠幫助用戶輕松創建3D體驗,并為美術,設計師和開發者開辟新的創意可能性。

在接下來的幾個月里,AssetGen將作為一個基礎構建模塊,令整個3D場景的自動回歸生成成為可能,為用戶在創建過程中實現一步步功能變化。這個新模型將能夠通過使用簡單的文本或圖像提示順序生成單個對象、結構或元素來生成復雜的3D環境。

團隊表示:“Meta致力于突破生成式人工智能領域的極限。AssetGen 2.0旨在提供令人驚嘆的視覺質量,超越現有的解決方案,并為行業樹立新的標準。隨著我們繼續探索3D生成人工智能的巨大潛力,我們非常期待看到創作者將如何利用AssetGen 2.0來將他們最雄心勃勃的想法變為現實,并重新定義3D內容創作。”

AssetGen 2.0將于今年下半年登陸Horizon Desktop Editor,更多信息可訪問這個頁面。

值得一提的是,Meta表示目前正在招聘包括研究科學家和工程師的一系列職位,并邀請世界各地的人才加入他們。