在現(xiàn)代 AI 模型中,如何保持合成數(shù)據(jù)的新鮮性和多樣性而不讓單一的調(diào)度管道成為瓶頸?Meta AI 的研究人員近日推出了 Matrix,一個去中心化的框架,通過將控制和數(shù)據(jù)流序列化為消息,分布在不同的隊(duì)列中進(jìn)行處理。
隨著大型語言模型(LLM)訓(xùn)練日益依賴合成對話、工具軌跡和推理鏈,現(xiàn)有系統(tǒng)通常依賴中心控制器或特定領(lǐng)域的設(shè)置,這會浪費(fèi) GPU 資源,增加協(xié)調(diào)開銷并限制數(shù)據(jù)多樣性。而 Matrix 采用了基于 Ray 集群的點(diǎn)對點(diǎn)智能體調(diào)度,相比之下,能夠在真實(shí)工作負(fù)載中提供2到15倍的更高令牌吞吐量,同時保持相似的質(zhì)量。
傳統(tǒng)的智能體框架通常將工作流狀態(tài)和控制邏輯保留在中心調(diào)度器中,所有的智能體調(diào)用和工具調(diào)用都必須經(jīng)過這個控制器。這種模式雖然易于理解,但在需要成千上萬并發(fā)合成對話時卻難以擴(kuò)展。而 Matrix 的設(shè)計則將控制流和數(shù)據(jù)流序列化成一個名為 “調(diào)度器” 的消息對象。每個無狀態(tài)的智能體作為 Ray 的 actor,從分布式隊(duì)列中獲取調(diào)度器,應(yīng)用其特定邏輯后將狀態(tài)更新并直接發(fā)送給下一個智能體。這種設(shè)計減少了不同軌跡長度差異帶來的空閑時間,故障處理也變得更加局部化。
Matrix 運(yùn)行在 Ray 集群上,通常通過 SLURM 啟動。Ray 提供了分布式智能體和隊(duì)列,而 Hydra 管理智能體角色、調(diào)度器類型和資源配置。該框架還引入了消息卸載,當(dāng)對話歷史超過閾值時,大量負(fù)載被存儲在 Ray 的對象存儲中,僅保留對象標(biāo)識符在調(diào)度器中,從而減少集群帶寬。
通過三個案例研究,Matrix 展示了其強(qiáng)大的性能:在 Collaborative Reasoner 的對話生成中,Matrix 的令牌吞吐量達(dá)到2億,相比之下,傳統(tǒng)方法僅為0.62億;在 NaturalReasoning 數(shù)據(jù)集構(gòu)建中,Matrix 的吞吐量提升了2.1倍;在 Tau2-Bench 工具使用軌跡評估中,Matrix 提供了15.4倍的吞吐量。Matrix 的設(shè)計不僅提升了吞吐量,還保持了輸出質(zhì)量,展示了高效的合成數(shù)據(jù)生成能力。
論文:https://arxiv.org/pdf/2511.21686
劃重點(diǎn):
?? Matrix 框架采用去中心化設(shè)計,避免了傳統(tǒng)中心調(diào)度器的瓶頸。
?? 在多項(xiàng)案例研究中,Matrix 展現(xiàn)出2到15倍的令牌吞吐量提升。
?? 該框架充分利用 Ray 集群的分布式特性,實(shí)現(xiàn)高效的合成數(shù)據(jù)生成與處理。

