本日報由AI生成,可能存在信息錯誤,具體可查看原文。
Meta CTO安德魯·博斯沃思在a16z訪談中強調,其與扎克伯格對AR眼鏡作為”后手機時代”核心設備具有不可動搖的信念,認為AR交互范式迭代是”三代人一遇”的技術躍遷,承諾Meta將不計成本推動技術突破(涉及AI、可穿戴硬件及沉浸式體驗堆棧)。
? Google I/O 2025前瞻:AI眼鏡原型亮相,Gemini多模態交互重塑無界面計算谷歌在預熱活動中暗示將在2025年I/O大會(5月20-21日)展示AI眼鏡原型,該設備集成微型顯示屏與Gemini多模態AI,具備:實時視覺交互:支持跨語言翻譯(如西班牙語→波斯語)、物體識別(書籍/鑰匙卡定位)、音樂控制等場景;無界面操作:通過自然語言直接觸發指令(如”播放專輯曲目”),結合AR導航疊加;Android XR生態布局:同期舉辦兩場閉門演講,介紹Jetpack SceneCore工具鏈與Compose XR框架,推動開發者構建3D沉浸應用。
? 谷歌專利提出偏振分束器的像素移位,提升AR/VR顯示感知分辨率谷歌提出一種基于偏振分束器(PBS)的像素移位技術,通過時分復用將單個物理像素擴展為多個虛擬像素,顯著提升AR/VR顯示的感知分辨率。其核心技術突破包括:
雙路徑偏振調制:利用PBS將非偏振光分解為S/P偏振分量,通過半波片、雙折射板等元件在兩條光路中實現像素位移(水平/垂直/對角線方向)
動態虛擬像素生成:同步切換可調半波片狀態,單像素可生成2-4個虛擬像素(如圖7雙向移位器實現四倍分辨率提升)
光路優化設計:反射式光路結構確保位移均勻性,避免重影偽影,兼容微型LED/OLED顯示模組
? 三星發布5000 ppi OLEDoS:亮度15000尼特,8K VR顯示質量三星與eMagin在SID Display Week展會上推出1.4英寸硅基OLED面板,突破性技術指標包括:
超高分辨率:5000 PPI(是Meta Quest 3的4倍),徹底消除VR”紗窗效應”
極致顯示性能:120Hz刷新率下實現15,000尼特亮度(演示版達20,000尼特),99%色域覆蓋率
量產計劃:預計2025年底投產,將應用于下一代高端VR頭顯
? 蘋果Vision Pro輔助功能升級:開放攝像頭API+意念操控蘋果為Apple Vision Pro推出革命性輔助功能升級,重點包括:智能視覺增強:主攝像頭支持任意元素放大(虛擬/現實對象),結合機器學習實時環境描述(如識別食譜圖文),為視障用戶提供操作支持;開發者賦能:開放主攝像頭API,允許輔助功能應用實現實時視覺輔助服務(如遠程人工導覽);腦機接口整合:與Synchron合作推出BCI協議,未來用戶可通過意念操控Vision Pro(已通過切換控制功能實現系統級支持)。
? 研究員提出ACMPTCP協議:AI動態優化多路徑傳輸,助力8K VR無卡頓串流美國愛荷華州立大學研發ACMPTCP協議,通過深度強化學習(DRL)動態優化多路徑傳輸,解決AR/VR等高帶寬應用的網絡需求。該技術突破性體現在:智能路徑管理:實時感知網絡狀態(延遲/丟包率),自動選擇最優傳輸路徑;自適應帶寬分配:在6G網絡環境下動態調整資源,支持4K/8K VR視頻流(1-20Mbps碼率)。
? 印度混合現實初創公司Flam獲得1400萬美元A輪融資印度混合現實初創公司Flam完成1400萬美元A輪融資,其核心技術為基于平面媒介掃描的MR體驗(如報紙/廣告牌觸發3D內容),已服務谷歌、三星等100余家品牌。
? Synchron腦機接口將支持Vision Pro意念操控腦機接口公司Synchron宣布將率先適配蘋果BCI Human Interface Device協議,使其植入式腦機接口設備成為visionOS官方支持的輸入外設。該技術允許用戶直接通過意念操控Apple Vision Pro等蘋果設備,并深度集成系統級輔助功能(如切換控制)。此前Synchron已實現全球首例BCI操控Vision Pro的臨床案例(2024年),并與英偉達合作演示智能家居控制(2025年)。此舉標志著腦機接口正式成為蘋果生態的原生交互方式。
? 研究員提出CNN-LSTM模型實現VR/AR自然手勢交互英國拉夫堡大學聯合美國多所高校提出基于三維手骨架模型與深度學習融合的手勢識別技術,通過CNN提取空間特征+LSTM建模時序動態,實現高精度自然交互。該技術突破性體現在:
三維骨架建模:簡化手部關節空間分布,增強靜態/動態手勢識別魯棒性
多模態優化:結合Dropout正則化與交叉熵損失函數,降低過擬合風險,識別準確率提升顯著
研究證實其可適配VR/AR場景,未來與眼動追蹤、語音識別融合將推動無界面化人機交互發展。
? 商湯與浙大研發GeoTexDensifier框架:幾何紋理雙優化打造高保真3D高斯飛濺模型商湯科技與浙江大學聯合提出創新性3D高斯飛濺(3DGS)框架GeoTexDensifier,通過幾何-紋理雙感知策略顯著提升三維場景重建質量。該技術突破性地結合:
紋理感知致密化:依據區域紋理豐富度動態調整高斯飛濺密度(高紋理區密集/低紋理區稀疏)
幾何感知分割:利用深度-法向先驗驗證飛濺位置,過濾偏離實際表面的噪點
實驗顯示,在MipNeRF 360等數據集上,其SSIM/PSNR指標優于Pixel-GS、MiniSplatting等方法,并已成功部署至Meta Quest實現實時VR交互。該研究為虛擬現實、數字孿生等領域提供更高保真度的3D重建解決方案。

