阿里在人工智能領(lǐng)域持續(xù)發(fā)力,繼此前開源Qwen3.5-397B-A17B模型后,再次宣布開源千問3.5系列的三款中等規(guī)模模型,分別為Qwen3.5-35B-A3B、Qwen3.5-122B-A10B以及Qwen3.5-27B。這一舉措為AI開發(fā)者社區(qū)注入了新的活力,也為行業(yè)應(yīng)用提供了更多選擇。
摩爾線程作為國內(nèi)GPU領(lǐng)域的創(chuàng)新企業(yè),迅速響應(yīng)阿里開源新模型的發(fā)布。其旗艦級AI訓推一體全功能GPU MTT S5000已全面完成對這三款新模型的適配工作,為開發(fā)者提供了高效、穩(wěn)定的硬件支持。這一適配成果不僅展現(xiàn)了摩爾線程在GPU技術(shù)上的深厚積累,也體現(xiàn)了其對AI生態(tài)建設(shè)的積極態(tài)度。
在技術(shù)層面,摩爾線程為開發(fā)者提供了多項便利。原生MUSA C支持使得開發(fā)者能夠直接使用MUSA C進行內(nèi)核開發(fā),顯著降低了從CUDA生態(tài)遷移的門檻。這一特性對于希望利用摩爾線程GPU進行AI開發(fā)的團隊來說,無疑是一個重要的利好消息。
摩爾線程還深度兼容Triton-MUSA,允許開發(fā)者使用熟悉的Triton語法編寫高性能算子。通過Triton-MUSA后端,這些算子可以無縫運行在摩爾線程的全功能GPU上,進一步提升了開發(fā)效率和模型性能。這一兼容性設(shè)計為開發(fā)者提供了更加靈活和高效的開發(fā)環(huán)境。
針對Qwen3.5多模態(tài)模型采用的混合注意力機制,摩爾線程在底層技術(shù)上進行了原生優(yōu)化。基于muDNN計算庫和MATE開源算子庫,摩爾線程為混合注意力機制中的長序列處理提供了高效支撐。這一優(yōu)化使得Qwen3.5模型在MTT S5000上能夠?qū)崿F(xiàn)高性能推理,為AI應(yīng)用的落地提供了有力保障。











