查看引用/信息源請點擊:中國AI網

旨在加速3D生成模型在AR/VR等實際生產流程中的落地應用

中國AI網 2025年09月27日)騰訊日前宣布,混元3D生成模型家族迎新——混元3D-Omni、混元3D-Part發布并開源,并旨在加速3D生成模型在AR/VR等實際生產流程中的落地應用。

作為業界首個統一支持多條件控制的3D生成框架,混元3D-Omni 突破傳統圖像輸入的局限性,支持多種模態輸入,實現對物體幾何結構、拓撲和姿態的精細控制。混元3D-Part則實現了靈活可控的部件拆分和生成,讓分解和生成3D模型像玩樂高一樣簡單。

團隊表示,混元3D-Omni、混元3D-Part將完整開放推理代碼和權重,全面開源、免費使用,便于學術研究和工業部署,助力可控3D生成的社區探索。

騰訊開源混元3D-Omni和混元3D-Part,加速3D生成模型在AR/VR等領域落地  第1張

混元3D-Omni:3D界的“ControlNet”

多條件控制一網打盡

近年來,基于原生3D表示(如點云和體素)的生成模型迅速興起。然而,當前主流方法主要依賴圖像輸入,易受單視角遮擋、光照干擾,導致幾何準確性不足;同時難以精細調控比例、姿態和細節,且無法適應多模態輸入,限制了在復雜場景中的實用性。

混元3D-Omni 基于混元3D 2.1開源模型構建,就像 “3D界的ControlNet”,通過輕量化的統一控制編碼器和漸進式難度感知訓練策略,混元 3D-Omni能融合多達四類控制條件,顯著提升生成的可控性和質量:

● 骨骼:在單圖條件下加入骨骼數據,能精確調節生成人物資產的姿態,完美適用于動畫制作或虛擬角色設計;

● 點云:注入完整物體點云或從深度圖投影的部分點云,幫助消除單張圖像的視覺歧義,提升幾何細節,讓3D模型更逼真可靠;

● 邊界框:允許微調生成資產的長寬高比例,確保結果與預期對齊;

● 體素:針對物體結構進行精確調節,讓生成的3D資產在幾何細節上滿足需求。

控制條件可靈活組合,支持深度攝像頭、LiDAR或重建模型等輸入來源。社區開發者同時可基于開源模型輕松擴展更多創意條件,如額外的人物姿態控制。

混元3D-Omni標志著3D生成從“圖像主導”向“多模態可控”轉型的關鍵一步。多模態融合的創新,不僅提升了生成的可控性和魯棒性,還為下游應用鋪平道路。

想象一下,在虛擬現實項目中,你用骨骼信號控制角色動態姿勢,再疊加點云細節讓模型更逼真——這一切,都能在本地快速迭代,無需昂貴硬件。

混元3D-Part:組件式生成新范式

讓3D模型像樂高一樣“可拆卸“

與混元3D-Omni的精準生成相呼應,混元3D-Part則專注解決3D生成的“拆解難題”。

傳統算法往往輸出不可分割的“一體化”模型,但實際應用中,可拆解的模型則能適應更多場景的需求:比如游戲制作中,汽車模型拆分成車身和獨立輪子,便于綁定滾動邏輯;3D打印時,像搭積木般逐個組件打印,能夠避免大件變形風險。

混元最新推出的混元3D-Part技術,由業界首個原生3D分割模型P3-SAM 與工業級組件生成模型X-Part 組成,首次實現高精度、可控的組件式3D生成,支持50 +組件自動生成,生成的模型幾何質量高、可編輯、結構合理,讓模型更易編輯、生產和應用。

延展地址

【混元3D-Omni】

代碼下載:https://github.com/Tencent-Hunyuan/Hunyuan3D-Omni

權重下載:https://huggingface.co/tencent/Hunyuan3D-Omni

技術報告:https://arxiv.org/pdf/2509.21245

【混元3D-Part】

代碼:https://github.com/Tencent-Hunyuan/Hunyuan3D-Part

權重:https://huggingface.co/tencent/Hunyuan3D-Part

體驗入口:

● (輕量版)Hugging Face demo:https://huggingface.co/spaces/tencent/Hunyuan3D-Part

● (滿血版)混元3D Studio:https://3d.hunyuan.tencent.com/studio

技術報告(兩篇):

● P3-SAM:

論文:https://arxiv.org/abs/2509.06784
項目網址:https://murcherful.github.io/P3-SAM/
● X-Part:

論文:https://arxiv.org/abs/2509.08643
項目網址:https://yanxinhao.github.io/Projects/X-Part/