近日,美國初創公司Arcee AI宣布推出其新系列的 Trinity 模型,旨在在競爭激烈的開源 AI 領域中重新定義美國的地位。與許多當前主流的開源大語言模型(LLM)相比,這些模型的訓練全部在美國進行,且采用了開放權重的混合專家(MoE)架構。
Trinity 系列目前包括 Trinity Mini 和 Trinity Nano Preview 兩個模型,用戶可以通過阿爾希的新網站 chat.arcee.ai 進行體驗,開發者也可在 Hugging Face 平臺上免費下載這兩個模型的代碼進行修改和微調,全部內容均采用企業友好的 Apache2.0許可證。Trinity Mini 模型參數量為260億,具備高通量推理能力,而 Trinity Nano 則是一個實驗性的聊天模型,參數量為60億,旨在提供更強的個性化對話體驗。
這兩個模型采用了阿爾希公司最新的注意力優先混合專家(AFMoE)架構,該架構在設計上將稀疏專家路由與增強的注意力機制相結合,以提高模型的推理能力和處理長文本的效率。與傳統的 MoE 模型相比,AFMoE 通過更平滑的方式選擇和融合專家的回答,使得模型能夠在理解和響應復雜問題時表現得更加靈活。
Arcee AI 的 CTO 盧卡斯?阿特金斯在社交媒體上表示,他們的目標是提供一個經過全面訓練、可供企業和開發者真正擁有的開源模型家庭。公司的下一款 Trinity Large 模型目前正在訓練中,預計將于2026年1月發布,屆時將進一步提升美國在開源 AI 領域的競爭力。
通過與數據策劃初創公司 DatologyAI 的合作,Arcee確保了訓練數據的質量,避免了常見的噪聲和偏見問題,為模型的訓練奠定了堅實基礎。同時,Arcee的基礎設施合作伙伴 Prime Intellect 也為模型訓練提供了強大的技術支持,確保了訓練過程的高效性和透明性。
劃重點:
- ?? Arcee推出的 Trinity 系列模型在美國進行全面訓練,旨在重塑開源 AI 格局。
- ?? Trinity Mini 和 Nano 模型采用創新的 AFMoE 架構,提高推理能力和長文本處理效率。
- ?? 公司計劃在2026年推出更大規模的 Trinity Large 模型,繼續推動美國在開源 AI 領域的創新。

