新加坡人工智能計劃AISG發(fā)布新一代大語言模型Qwen-Sea-Lion-v4,底層由Meta Llama全面切換為阿里巴巴“通義千問”Qwen3-32B,并在東南亞語言綜合評估基準(Sea-Helm)奪得<2000億參數(shù)開源榜單第一名。

切換原因

- 語言適配:Llama對印尼語、泰語、馬來語等低資源語言表現(xiàn)不佳;Qwen3預訓練覆蓋119種語言/方言,含36萬億token,原生多語架構降低后續(xù)訓練門檻

- 分詞優(yōu)化:新模型放棄西方常用“句子分詞器”,采用字節(jié)對編碼(BPE),可無空格切分泰語、緬甸語字符,翻譯準確率與推理速度顯著提升

- 算力友好:量化后模型可在32GB內(nèi)存消費級筆記本運行,契合東南亞大量中小企業(yè)算力稀缺場景

訓練數(shù)據(jù)

AISG貢獻1000億東南亞語言token,內(nèi)容濃度13%,為Llama2的26倍;阿里運用“高級后訓練”注入?yún)^(qū)域知識,使模型更好理解新加坡式英語、馬來式英語等混用語言。

性能結果

Sea-Helm榜單顯示,Qwen-Sea-Lion-v4在印尼語、越南語、泰語、馬來語任務上平均領先原Llama基線8.4%,文檔級推理與跨語言摘要指標均排名第一。

開源與落地

模型已在Hugging Face、AISG官網(wǎng)免費開放下載,提供4/8位量化版本;新加坡政府將其納入2023年啟動的7000萬新元國家級多模態(tài)計劃,預計2026年在教育、醫(yī)療、金融等場景大規(guī)模部署。