騰訊今日發(fā)布開源MOE大語言模型Hunyuan-large,總參數(shù)量達398B,激活參數(shù)量52B。公開測評結(jié)果顯示,騰訊混元Large在CMMLU、MMLU、CEva1、MATH等多學(xué)科綜合評測集以及中英文NLP任務(wù)、代碼和數(shù)學(xué)等9大維度全面領(lǐng)先,超過Llama3.1、Mixtral等一流的開源大模型。
據(jù)了解,該模型在技術(shù)創(chuàng)新上可實現(xiàn)高質(zhì)量合成數(shù)據(jù),通過使用合成數(shù)據(jù)增強訓(xùn)練,有效應(yīng)對自然數(shù)據(jù)的不足。在上下文處理能力方面,預(yù)訓(xùn)練模型支持高達256K的文本序列,顯著增強了處理長上下文任務(wù)的能力。
同時,騰訊混元宣布,為填補行業(yè)真實長文評測集不足,騰訊混元即將開源企鵝卷軸評測集助力業(yè)界應(yīng)用研究。自研企鵝卷軸(PenguinScrolls)基于公開金融、法律、學(xué)術(shù)論文等多種自然長文本,長度范圍達1K-128K,覆蓋各種深度閱讀理解、長文推理任務(wù)。
騰訊混元Large大語言模型的發(fā)布和企鵝卷軸評測集的開源,將為業(yè)界提供更強大的語言模型和評測工具,推動自然語言處理和人工智能領(lǐng)域的發(fā)展。

