查看引用/信息源請點擊:中國AI網

它支持用戶通過Quest 3頭顯掃描真實場景,并以照片級畫質在VR中重現場景

中國AI網 2025年09月18日)Meta今天發布了掃描工具Meta Horizon Hyperscape Capture (Beta)。它支持用戶通過Quest 3頭顯掃描真實場景,并以照片級畫質在VR中重現場景。

Meta發布 Hyperscape Capture,支持Quest 3掃描真實場景  第1張

Meta曾在2024年的Connect 2024大會推出一款演示應用《Horizon Hyperscape Demo》,通過六個接近照片級真實掃描的現實場景來展示Gaussian Splatting/高斯飛濺的魅力。在當時,Meta就表示最終將開放用戶自主掃描環境的功能。

如今團隊終于兌現了這一承諾。

創建Horizon Hyperscape掃描場景需經歷三個步驟:前兩個步驟在頭顯端完成,而第三個步驟則通過Meta服務器處理。

首先,利用Quest 3或Quest 3S頭顯,用戶需要環顧房間生成場景網格,而這與設置空間感知混合現實功能時的操作一致。根據房間大小與復雜程度,相關過程需時10至30秒。

第二步是目前最耗時的環節:用戶需要走遍房間每個角落,將頭顯貼近所有表面以消除3D網格。這個過程可能花費數分鐘。

第三步則交接給Meta,掃描數據將上傳至Meta服務器,而2至4小時后你就會收到掃描完成可查看的通知。

與近年來出現的其他立體場景捕獲與重建技術一樣,Horizon Hyperscape的實現依托于高斯飛濺技術。

與去年的《Horizon Hyperscape Demo》相同,渲染后的Hyperscape場景通過Meta所謂的”Project Avalanche”技術從云端服務器進行流式傳輸。所有復雜計算均不在設備端進行。

需要說明的是,體驗并非完美無缺:細節處(如小字號文字)依然存在模糊,而且深蹲觀察家具底部時能看到明顯變形。這是因為頭顯在掃描時未能捕獲到相關區域。但拋開這些小瑕疵,這可能是我們見過最真實的場景捕獲技術。