加州圣迭戈電——在NeurIPS2025現場,英偉達發布首款面向L4級自動駕駛的推理視覺語言動作模型Alpamayo-R1,并同步上線GitHub與Hugging Face。新模型基于今年8月推出的Cosmos-Reason系列,可一次性處理攝像頭、激光雷達與文本指令,先內部推理再輸出駕駛決策,官方稱其給車輛注入“人類常識”。

英偉達扔下“物理 AI”重彈:開源自動駕駛推理模型Alpamayo-R1,讓車輛先“思考”再踩油門  第1張

Alpamayo-R1亮點一覽:

- 統一架構:視覺+語言+動作三模態端到端訓練,避免分模塊誤差疊加

- 推理鏈路:Cosmos思維鏈讓模型對“前車急剎、行人橫穿”等場景進行多步推演,再輸出加速/制動/轉向信號

- 即開即用:權重、推理腳本與評估工具一并打包進“Cosmos Cookbook”,開發者可按需微調

英偉達首席科學家Bill Dally表示,機器人與自動駕駛將是下一波AI浪潮的核心,“我們要做所有機器人的大腦”。伴隨新模型發布,公司同時推出數據合成、模型評測與后訓練全流程指南,鼓勵車企與Robotaxi團隊在限定區域快速驗證L4功能。

分析師認為,開源推理模型可顯著降低車廠自研門檻,但能否通過功能安全認證、滿足車規級實時要求,仍是Alpamayo-R1商業化前必須跨過的門檻。