查看引用/信息源請點擊:中國AI網
旨在加速3D生成模型在AR/VR等實際生產流程中的落地應用
(中國AI網 2025年09月27日)騰訊日前宣布,混元3D生成模型家族迎新——混元3D-Omni、混元3D-Part發布并開源,并旨在加速3D生成模型在AR/VR等實際生產流程中的落地應用。
作為業界首個統一支持多條件控制的3D生成框架,混元3D-Omni 突破傳統圖像輸入的局限性,支持多種模態輸入,實現對物體幾何結構、拓撲和姿態的精細控制。混元3D-Part則實現了靈活可控的部件拆分和生成,讓分解和生成3D模型像玩樂高一樣簡單。
團隊表示,混元3D-Omni、混元3D-Part將完整開放推理代碼和權重,全面開源、免費使用,便于學術研究和工業部署,助力可控3D生成的社區探索。

混元3D-Omni:3D界的“ControlNet”
多條件控制一網打盡
近年來,基于原生3D表示(如點云和體素)的生成模型迅速興起。然而,當前主流方法主要依賴圖像輸入,易受單視角遮擋、光照干擾,導致幾何準確性不足;同時難以精細調控比例、姿態和細節,且無法適應多模態輸入,限制了在復雜場景中的實用性。
混元3D-Omni 基于混元3D 2.1開源模型構建,就像 “3D界的ControlNet”,通過輕量化的統一控制編碼器和漸進式難度感知訓練策略,混元 3D-Omni能融合多達四類控制條件,顯著提升生成的可控性和質量:
● 骨骼:在單圖條件下加入骨骼數據,能精確調節生成人物資產的姿態,完美適用于動畫制作或虛擬角色設計;
● 點云:注入完整物體點云或從深度圖投影的部分點云,幫助消除單張圖像的視覺歧義,提升幾何細節,讓3D模型更逼真可靠;
● 邊界框:允許微調生成資產的長寬高比例,確保結果與預期對齊;
● 體素:針對物體結構進行精確調節,讓生成的3D資產在幾何細節上滿足需求。
控制條件可靈活組合,支持深度攝像頭、LiDAR或重建模型等輸入來源。社區開發者同時可基于開源模型輕松擴展更多創意條件,如額外的人物姿態控制。
混元3D-Omni標志著3D生成從“圖像主導”向“多模態可控”轉型的關鍵一步。多模態融合的創新,不僅提升了生成的可控性和魯棒性,還為下游應用鋪平道路。
想象一下,在虛擬現實項目中,你用骨骼信號控制角色動態姿勢,再疊加點云細節讓模型更逼真——這一切,都能在本地快速迭代,無需昂貴硬件。
混元3D-Part:組件式生成新范式
讓3D模型像樂高一樣“可拆卸“
與混元3D-Omni的精準生成相呼應,混元3D-Part則專注解決3D生成的“拆解難題”。
傳統算法往往輸出不可分割的“一體化”模型,但實際應用中,可拆解的模型則能適應更多場景的需求:比如游戲制作中,汽車模型拆分成車身和獨立輪子,便于綁定滾動邏輯;3D打印時,像搭積木般逐個組件打印,能夠避免大件變形風險。
混元最新推出的混元3D-Part技術,由業界首個原生3D分割模型P3-SAM 與工業級組件生成模型X-Part 組成,首次實現高精度、可控的組件式3D生成,支持50 +組件自動生成,生成的模型幾何質量高、可編輯、結構合理,讓模型更易編輯、生產和應用。
延展地址
【混元3D-Omni】
代碼下載:https://github.com/Tencent-Hunyuan/Hunyuan3D-Omni
權重下載:https://huggingface.co/tencent/Hunyuan3D-Omni
技術報告:https://arxiv.org/pdf/2509.21245
【混元3D-Part】
代碼:https://github.com/Tencent-Hunyuan/Hunyuan3D-Part
權重:https://huggingface.co/tencent/Hunyuan3D-Part
體驗入口:
● (輕量版)Hugging Face demo:https://huggingface.co/spaces/tencent/Hunyuan3D-Part
● (滿血版)混元3D Studio:https://3d.hunyuan.tencent.com/studio
技術報告(兩篇):
● P3-SAM:
論文:https://arxiv.org/abs/2509.06784
項目網址:https://murcherful.github.io/P3-SAM/
● X-Part:
論文:https://arxiv.org/abs/2509.08643
項目網址:https://yanxinhao.github.io/Projects/X-Part/

