查看引用/信息源請點擊:中國AI網(wǎng)
首席科學家邁克爾·亞伯拉什
(中國AI網(wǎng) 2025年09月19日)當?shù)桥_協(xié)助為第二天的主題演講收官時,Reality Labs首席科學家邁克爾·亞伯拉什回顧了他在2016年Connect大會做出的預(yù)測,并反思了我們迄今在虛擬現(xiàn)實和增強現(xiàn)實領(lǐng)域取得的進展。

他表示:“過去九年再次印證了霍夫斯塔特定律。即便你考慮了霍夫斯塔特定律,事情花費的時間總是會超出預(yù)期。”
雖然尚未量產(chǎn),但Meta在觸覺技術(shù)、照片級虛擬形象、視野范圍等領(lǐng)域已實現(xiàn)關(guān)鍵突破。Meta Quest和Orion原型機都在將數(shù)字內(nèi)容與現(xiàn)實世界視野相融合。亞伯拉什說道:“九年前我描繪的未來正在到來,只是比預(yù)期更晚些。”
超出預(yù)期的是情境式AI的出現(xiàn)——除了少數(shù)遠見者的想象外,無人預(yù)料到這種能理解物理世界及人類所處位置的AI。
與僅從互聯(lián)網(wǎng)信息中學習的大型語言模型(LLM)和生成式AI不同,情境式AI能看見我們所見的,聽見我們所聞的,并實時理解我們所處的環(huán)境。
亞伯拉什解釋道:“這確實是前所未有的創(chuàng)新。它將徹底改變我們與數(shù)字世界的交互方式,讓人與計算機、人與人形成伙伴關(guān)系,以真正個性化、人性化的方式極大釋放人類潛能。”
要理解亞伯拉什早在2018年就預(yù)言將以AR和VR形式出現(xiàn)的第二次人本計算浪潮,有必要先了解標志人機交互范式革命、造就當今互聯(lián)信息設(shè)備世界的第一次浪潮。
第一次人本計算浪潮時間軸
1957年//J.C.R.”利克”·利克利德在MIT林肯實驗室邂逅實驗型TX-2計算機
“希望在不遠的未來,人腦與計算機能緊密耦合,這種伙伴關(guān)系將實現(xiàn)前所未有的思考方式,以當今信息處理機器無法企及的方式處理數(shù)據(jù)。”——J.C.R.利克利德
1960年代//利克利德在ARPA資助包括道格拉斯·恩格爾巴特在內(nèi)的多位研究者
1968年//恩格爾巴特展示”所有演示之母”,呈現(xiàn)現(xiàn)代圖形用戶界面(GUI)雛形
“如果在辦公室為你這位知識工作者配備終日待命的計算機顯示系統(tǒng),能即時響應(yīng)你的每個操作——你將從中獲得多大價值?”
——道格拉斯·恩格爾巴特
1970年代//施樂PARC研究中心開發(fā)出首臺真正個人電腦Alto
1979年//蘋果工程師造訪施樂PARC,受Alto啟發(fā)后開發(fā)Lisa和Macintosh系統(tǒng)
亞伯拉什指出:“這直接催生了Mac、Windows及后續(xù)所有產(chǎn)品。今天我們生活在利克和恩格爾巴特創(chuàng)造的世界——你們每個人都隨身攜帶著利克愿景的直接產(chǎn)物,運行著恩格爾巴特界面的直系后裔。”
變革之海
亞伯拉什表示:“第一次浪潮是我們徜徉的海洋。但盡管這場革命席卷全球,它仍未完成。”
亞伯拉什強調(diào),我們對世界的體驗取決于感官接收的信息以及行動產(chǎn)生的結(jié)果。這些信息來自何處或行動發(fā)生于何處并不重要:數(shù)字虛擬信息與行動與現(xiàn)實世界同樣有效。
亞伯拉什解釋道:“利克發(fā)起的革命創(chuàng)造了一個我們持續(xù)交互的龐大虛擬世界,但交互方式極其有限——僅通過二維平面上的應(yīng)用,依靠點擊、敲擊和鍵入來操控。這固然被證明極具價值,但僅動用了我們手部與感官可用帶寬的極小部分,因此只能提供我們所能體驗與實現(xiàn)的有限子集。”
其結(jié)果是,計算設(shè)備不斷索取注意力,將我們從當下情境與眼前之人抽離。
第二次人本計算浪潮將通過“以最高保真度驅(qū)動所有感官,同時讓雙手在虛擬空間自然移動并真實觸感交互對象”來實現(xiàn)利克利德的愿景。亞伯拉什表示:“與物理現(xiàn)實完全無法區(qū)分的虛擬體驗尚需時日,但我們已經(jīng)能以逼真方式驅(qū)動視覺與聽覺。隨著技術(shù)演進,我們將能以更豐富的方式工作娛樂,實現(xiàn)真正人性化的遠程連接。”
當然,人類體驗不僅限于外部世界的關(guān)系——雖然重要,但定義我們之所以為人的是形成世界模型的內(nèi)部認知過程。
亞伯拉什指出:“技術(shù)極大擴展了人類與外部世界交互的范圍和能力,但幾乎未觸及我們的內(nèi)部體驗。盡管手機終日相伴,它卻不理解我的情境、目標或決策過程,因此無法助力我的內(nèi)部體驗。若能實現(xiàn),這將在提醒、聽覺輔助、情境化訊息通話處理、強化記憶等方方面面革新我的生活。”
實踐中的可能形態(tài)?以昨日發(fā)布的對話專注功能為例。手動開啟時可助你在嘈雜環(huán)境中聽清對話。若情境式AI知悉你的偏好,則會在你身處嘈雜環(huán)境嘗試交談時自動激活。當新朋友加入談話,AI會同步放大其聲音——無論你當時注視何處。這一切都將在你無意識間完成。
亞伯拉什坦言:“第一種場景已是極具價值的功能,我迫不及待想體驗。但得益于理解我需求目標的AI,第二種場景才真正實現(xiàn)了聽覺感知的完整進階。”
試想AI能理解你周邊的三維世界:幫你尋找鑰匙,實時輔助記錄卡路里,在會議中主動推送相關(guān)備忘,以近乎完美的清晰度追溯過往體驗。你再也不會因需要手動辨別推銷電話與母親重要訊息而被打斷當下時刻。
亞伯拉什說道:“可能存在數(shù)千種應(yīng)用場景,或大或小,但共同點是讓你以前所未有的深度實現(xiàn)人生追求。這種AI助你在需要時專注,記住該記之事,建立更有意義的連接,增強而非抽離你在現(xiàn)實世界的體驗。”
得益于大型語言模型與可讓AI共享視野的可穿戴設(shè)備,我們開啟了技術(shù)新可能:放大人類意圖而非分散注意力。將情境式AI視為幫你處理信息(物理或數(shù)字)并采取行動的伙伴。
亞伯拉什說說道:“若在十一年前,我會認為這些都是不切實際的科幻構(gòu)想。但Ray-Ban Meta智能眼鏡、大型語言模型與十年研究的結(jié)合,已使情境式AI成為人本計算的明確未來——第二次浪潮的核心。”
為深入闡述,他請出對此思考最久的先驅(qū)之一:研究科學副總裁理查德·紐科姆。
人類網(wǎng)絡(luò)的局限與潛能
紐科姆首先帶我們回到1968年:阿波羅8號任務(wù)中宇航員威廉·安德斯拍攝的首張人類攝制地球全彩照片。
紐科姆解釋道:“這種世界觀震撼而新穎,它超越世人既往認知。一個被國界政治分割的世界突然呈現(xiàn)為統(tǒng)一整體——在浩瀚太空中獨特而珍貴…這助推了現(xiàn)代環(huán)保運動興起,徹底改變了人們對共享世界的理解。”
個人計算的興起恰逢全球共同思維新時代的黎明。但紐科姆指出存在局限——尤其是鄧巴數(shù)字理論,認為人類只能維持150個穩(wěn)定關(guān)系。
另一方面,若六度分隔理論成立,地球上任意兩人僅通過四個中間人即可建立連接。
紐科姆說道:“數(shù)據(jù)令人震驚——網(wǎng)絡(luò)覆蓋呈指數(shù)級增長。僅80個層級就能連接所有現(xiàn)存人類與既有思想。我們接近龐大人類知識與思維能力的潛力驚人——鄧巴數(shù)字與六度分隔既代表局限,也彰顯潛能。”
第一次人本計算浪潮消弭了距離障礙,讓親友同事觸手可及。互聯(lián)網(wǎng)與搜索讓我們近乎即時獲取人類知識寶庫。但仍有潛力待發(fā)掘。
紐科姆指出:“可以這樣理解,以發(fā)展現(xiàn)代信息論聞名的美國數(shù)學家克勞德·香農(nóng)曾計算每個英文單詞約含7-10比特信息。按正常語速(每分鐘150詞)計算,每人每秒產(chǎn)生約10比特信息。想想看:人類歷史上的每部法律、每封信件、每個突破——包括此刻我向你們傳遞的所有內(nèi)容——都是通過比1990年代撥號調(diào)制解調(diào)器更窄的通信通道實現(xiàn)的。”
相比之下,紐科姆指出基于感官的現(xiàn)實意識體驗每秒處理約10億比特信息。他類比為當下接收處理4K視頻流的WiFi。但當你嘗試與他人分享體驗時,又退回撥號網(wǎng)速水平。因此,我們的網(wǎng)絡(luò)實則是人類認知的聚合工具。
紐科姆指出:“我們發(fā)明工具擴展個體能力——書籍延伸記憶,數(shù)學助力結(jié)構(gòu)化推理,計算機處理信息,互聯(lián)網(wǎng)突破距離限制。但只有通過人類網(wǎng)絡(luò),我們才能真正超越單一大腦閱讀、存儲、推理與表達的瓶頸。這些網(wǎng)絡(luò)是我們實現(xiàn)大規(guī)模行動與變革的方式。”
情境式AI的崛起
站在AI時代的黎明,我們面對的技術(shù)能篩選、聚合并預(yù)測遠超單一大腦處理極限的信息。紐科姆認為,其真正影響不在于自動化日常重復(fù)任務(wù),而在于如何根本性改變?nèi)祟惥W(wǎng)絡(luò)動態(tài)。
他表示:“想象AI促成全人類流動連接網(wǎng)絡(luò),其能力堪比當今最佳組織,讓個體獲得整個公司的力量。想象這樣的組織對我們每個人開放——釋放接觸數(shù)十億心智的通道。我們正邁向讓每個個體訪問聯(lián)邦式輸入、聚合、處理、合成與輸出系統(tǒng)的飛躍——這此前只有人類網(wǎng)絡(luò)能通過時間過濾實現(xiàn)。”
然而當前大型語言模型存在局限。盡管經(jīng)過互聯(lián)網(wǎng)規(guī)模數(shù)據(jù)訓練,它們?nèi)匀狈ξ锢硎澜缂叭祟愺w驗的情境理解。
紐科姆表示:“情境式AI彌合了具身現(xiàn)實與符號認知世界間的鴻溝,使AI能理解我們共處的現(xiàn)實。這得益于能見你所見、聽你所聞的AI智能眼鏡。它們構(gòu)成新一代可穿戴計算機,理解你的行為模式與協(xié)作方式。”
由于AI眼鏡能共享你的視聽體驗,它們有望創(chuàng)建個性化知識庫,使AI能根據(jù)重要事項定制交互與訪問權(quán)限。長期來看,這不僅助于理解孤立事件,還能識別因果模式。
紐科姆解釋道:“其潛力在于讓AI理解互聯(lián)生活如何編織成共享現(xiàn)實。一旦實現(xiàn),AI就能直接基于我們持續(xù)的情境流來理解、預(yù)測并創(chuàng)造機會,讓我們以最高效形式協(xié)作。這將使AI理解我們的關(guān)注重點與最優(yōu)溝通方式——無論是與AI還是他人交互。”
真正的人性化界面
十余年來,Reality Labs持續(xù)推動虛擬與增強現(xiàn)實的技術(shù)前沿。Codec Avatars將打破距離限制,實現(xiàn)社交瞬移,讓我們能像視頻通話般輕松與任何地點的人真實共處。Meta通過Ray-Ban Meta智能眼鏡向世界展示AI眼鏡潛力。昨日發(fā)布的Meta Ray-Ban智能眼鏡配備顯示功能,通過全新Meta神經(jīng)腕帶實現(xiàn)視覺信息共享與無聲超低摩擦輸入。
紐科姆指出:“2020年首推、現(xiàn)已迭代至第二代的Aria項目,開啟了情境化AI研發(fā):結(jié)合傳感與移動計算的研究眼鏡為AI提供更優(yōu)質(zhì)情境。未來產(chǎn)品將逐步釋放這些信號價值,包括理解我們的注視目標與完成意圖。這些高度個性化的情境信號將催生高度個性化AI及所有衍生功能:幫助我們實現(xiàn)目標、共情、學習成長的超強記憶與回溯。隨著AI眼鏡逐漸在物理與數(shù)字生活中處理重要情境維度,超級智能將在我們的一切活動中扮演重要角色——無論是在物理還是數(shù)字現(xiàn)實,隨時隨地理解現(xiàn)實情境。”
Meta正在構(gòu)建的技術(shù)有望釋放集體潛能,基于共同認知創(chuàng)造理想現(xiàn)實。
他總結(jié)道:“當這些技術(shù)與真AR融合——沉浸式顯示遇見情境式AI——我們將接近某種深遠境界:不抽離現(xiàn)實而是增強體驗與連接的界面。再沒有比這更人性化的技術(shù)了。”

