阿里云百煉平臺近日宣布上線了Qwen2.5-Turbo百萬長文本模型,Qwen2.5-Turbo模型由通義千問團隊開發,支持處理高達100萬tokens的超長上下文,相當于100萬個英文單詞或150萬個漢字。

這一新版本的模型在長文本檢索任務中的準確率達到100%,并在長文本評測集RULER上獲得93.1分,超越了GPT-4。在LV-Eval、LongBench-Chat等接近真實場景的長文本任務中,Qwen2.5-Turbo在多數維度上超越了GPT-4o-mini。在短文本基準測試中,Qwen2.5-Turbo的表現也非常出色,顯著超越了之前上下文長度為1M tokens的開源模型。

Qwen2.5-Turbo模型的應用場景廣泛,包括長篇小說深入理解、大規模代碼助手、多篇論文閱讀等,能夠一次性處理10本長篇小說、150小時的演講稿或3萬行代碼。在推理速度方面,通義千問團隊通過稀疏注意力機制將計算量壓縮了約12.5倍,將處理1M tokens上下文的首字返回時間從4.9分鐘降低到68秒,實現了4.3倍的速度提升。

阿里云百煉平臺為所有用戶提供了直接調用Qwen2.5-Turbo API的能力,并限時贈送1000萬tokens額度。后續使用百萬tokens的成本僅為0.3元。

目前,阿里云百煉平臺已上線包括Qwen、Llama、ChatGLM在內的超200款國內外主流開源和閉源大模型,支持用戶直接調用、訓練微調或打造RAG應用。