據(jù) SemiAnalysis 最新報(bào)告,自2024年5月 GPT-4o 發(fā)布以來,OpenAI 尚未完成任何一次“面向下一代前沿模型”的大規(guī)模預(yù)訓(xùn)練部署,其頂尖團(tuán)隊(duì)多次嘗試擴(kuò)展參數(shù)與數(shù)據(jù)規(guī)模,均因收斂困難或性能倒掛而中途叫停。這導(dǎo)致被外界寄予厚望的 GPT-5系列實(shí)質(zhì)上仍是 GPT-4o 的優(yōu)化變體,未能實(shí)現(xiàn)架構(gòu)級(jí)突破。
與此同時(shí),谷歌 TPUv7已在 Gemini3等模型上完成大規(guī)模預(yù)訓(xùn)練驗(yàn)證,同等算力集群的總體擁有成本(TCO)比英偉達(dá)方案低約30%。SemiAnalysis 指出,OpenAI 甚至“尚未真正部署 TPU”,僅傳出評(píng)估消息,就迫使英偉達(dá)在現(xiàn)有 GPU 集群報(bào)價(jià)上讓步,為 OpenAI 節(jié)省約三成成本——側(cè)面凸顯 TPU 的性價(jià)比優(yōu)勢(shì)。
行業(yè)觀點(diǎn)認(rèn)為,預(yù)訓(xùn)練 Scaling 定律正遭遇數(shù)據(jù)、算力與模型配方三重瓶頸:優(yōu)質(zhì)互聯(lián)網(wǎng)數(shù)據(jù)接近枯竭,合成數(shù)據(jù)成本高達(dá)1億美元/1TB,十萬卡集群故障頻發(fā),更大規(guī)模 MoE 的超參數(shù)亦難摸索。OpenAI 的停滯被視為整個(gè)賽道進(jìn)入“后 Scaling 時(shí)代”的標(biāo)志性信號(hào),各家開始轉(zhuǎn)向推理模型、自博弈 RL 與多模態(tài)后訓(xùn)練尋求增量突破。

