DeepSeek 發布 V3.2(標準版)與 V3.2-Speciale(深度思考版),官方評測顯示:

- V3.2在128k 上下文場景下與 GPT-5互有勝負

- V3.2-Speciale 在 MMLU、HumanEval 等基準中與 Gemini3Pro 打平,IMO2025盲測獲金牌分數線83.3%

轉正稀疏注意力(DSA)是核心升級:通過“目錄”式路由token,將長文本計算復雜度從O(n2)降至O(n),顯存占用下降40%,推理速度提升2.2倍,首次在開源模型實現百萬token單卡推理。

后訓練環節,團隊把>10%整群算力投入強化學習,采用組對強化學習(GRPO)+多數投票,讓模型在代碼、數學與工具調用任務上逼近閉源對手。V3.2-Speciale取消“思考長度懲罰”,鼓勵更長鏈式推理,平均輸出token較Gemini3Pro高32%,但準確率提升4.8個百分點。

模型已上線GitHub與Hugging Face,權重采用Apache2.0協議,允許商業化。DeepSeek表示,下一步將開源長文本DSA內核與RL訓練框架,繼續把“閉源優勢”轉化為社區基礎設施。行業評論稱,若后續版本保持迭代節奏,開源陣營有望在2026年前實現“長文本+推理”雙重領先。