近日,AMD 發(fā)布了其最新的 Strix Point APU 系列,強(qiáng)調(diào)該系列在 AI 大語言模型(LLM)應(yīng)用中的出色表現(xiàn),遠(yuǎn)超英特的 Lunar Lake 系列處理器。AI 工作負(fù)載需求的不斷增長,硬件的競爭愈發(fā)激烈。為了應(yīng)對市場,AMD 推出了為移動平臺設(shè)計(jì)的 AI 處理器,旨在更高的性能更低的延遲。

AMD 表示,ix Point 系列的 Ryzen AI300處理器在處理 AI LLM 任務(wù)時(shí),能夠顯著提高每秒處理的 Tokens 數(shù)量,相較于英特爾的 Core Ultra258V,Ryzen AI9375的性能提升達(dá)到了27%。雖然 Core Ultra7V 并不是 L Lake 系列中最快型號,但其核心和線程數(shù)量接近于更高端的 Lunar Lake 處理器,顯示出 AMD 產(chǎn)品在此領(lǐng)域的競爭力。

AMD 的 LM Studio 工具一款面向消費(fèi)者的應(yīng)用,基 llama.cpp 框架,旨在簡化大語言模型的使用。該框架優(yōu)化了 x86CPU 的性能,雖然不需要 GPU 就能運(yùn)行 LLM,但使用 GPU 可以進(jìn)一步加速處理速度。根據(jù)測試,Ryzen AI9HX375在 Meta Llama3.21b Instruct 模型中,能夠?qū)崿F(xiàn)35倍更低延遲,每秒處理達(dá)到50.7個(gè) Tokens 比之下,Core Ultra7258V 僅為39.9個(gè) Tokens。

不僅如此,Strix Point APU 還配備強(qiáng)大的基于 RDNA3.5構(gòu)的 Radeon 集成顯卡,通過 ulkan API 將任務(wù)卸載到 iGPU 上,進(jìn)一步提升 LLM 的性能。利用變更圖形內(nèi)存(VGM)技術(shù),Ryzen AI300處理器可優(yōu)化內(nèi)存分配,提高能效,最終實(shí)現(xiàn)達(dá)60% 的性能提升。

在對比測試中,AMD 在 Intel AI Playground 平臺上使用相同設(shè)置,發(fā)現(xiàn) Ryzen AI9HX375在 Microsoft Phi3.1上比 Core Ultra7258V 快87%,而在 Mistral7b Instruct0.3模型中快13%。盡管如此,若與 Lunar Lake 系列中的旗艦產(chǎn)品 Core Ultra9288V 進(jìn)行比較,結(jié)果將更加有趣。目前,AMD 正專注于通過 LM Studio 使大語言模型的使用變得更加普及,旨在讓更多非技術(shù)用戶也能輕松上手。

劃重點(diǎn):

?? AMD Strix Point APUs 在 AI LLM 應(yīng)用中比英特爾 Lunar Lake 提升了27% 的性能。

? Ryzen AI9HX375在 Meta Llama3.2模型中表現(xiàn)3.5倍更低的延遲。

?? LM Studio 工具旨在使大語言模型的使用變得更簡單,適合非技術(shù)用戶。