3月6日,阿里云團隊正式開源全新推理模型——通義千問QwQ-32B。摩爾線程在該模型發(fā)布后2小時內(nèi),迅速且高效完成了對千問QwQ-32B的支持?;诖笳Z言模型高速推理框架vLLM以及MT Transformer推理引擎部署的QwQ-32B,在實際運行中展現(xiàn)出了卓越的推理性能與穩(wěn)定性,充分印證了MUSA架構(gòu)和全功能GPU在生態(tài)兼容與快速支持方面的強大優(yōu)勢。
圖注:摩爾線程模型廣場“夸娥工場”體驗界面
摩爾線程將這一成果開放上線至模型廣場“夸娥工場”??涠鸸鍪悄柧€程傾力打造的模型展示中心,旨在為用戶提供基于摩爾線程夸娥(KUAE)智算集群支持的模型能力體驗。用戶通過訪問夸娥工場或點擊“閱讀原文”,即可體驗QwQ-32B強大的推理模型性能與創(chuàng)新技術(shù)。
▼ 夸娥工場體驗地址:
https://playground.mthreads.com
▼ QwQ-32B體驗地址:
https://playground.mthreads.com:12019
千問QwQ-32B是阿里探索推理模型的最新成果。在一系列權(quán)威基準測試中,千問QwQ-32B 模型表現(xiàn)異常出色,幾乎完全超越了OpenAI-o1-mini,比肩最強開源推理模型DeepSeek-R1。盡管該模型僅包含32B參數(shù),但通過大規(guī)模強化學習訓練,其在數(shù)學、編程及通用能力等領(lǐng)域?qū)崿F(xiàn)了顯著突破,展現(xiàn)了卓越的智能化水平。
圖注:官方發(fā)布的benchmark測試對比圖
從官方發(fā)布的benchmark測試對比圖中可以清晰地看到,QwQ-32B在各項測試中成績顯著高于OpenAI-o1-mini及Deepseek的各個蒸餾版本。在LiveBench與BFCL測試中甚至擊敗了滿血版的Deepseek-R1-671B。
從DeepSeek一系列模型的問世,到阿里云通義千問QwQ-32B的發(fā)布,這些開源大模型降低了開發(fā)門檻,激發(fā)了開源社區(qū)創(chuàng)新活力,極大地推動了AI技術(shù)的普及與發(fā)展。它們用實打?qū)嵉谋憩F(xiàn)證明,開源大模型憑借其強大的性能和靈活性,正在突破傳統(tǒng)技術(shù)局限,成為不可阻擋的發(fā)展趨勢。
摩爾線程積極響應(yīng)開源社區(qū)的號召,旨在賦能更多開發(fā)者基于國產(chǎn)全功能GPU進行AI應(yīng)用創(chuàng)新。摩爾線程僅用一周時間就火速支持了DeepSeek開源周“全家桶”,對千問QwQ-32B更實現(xiàn)了Day0級支持,充分驗證了摩爾線程先進MUSA架構(gòu)和全功能GPU的技術(shù)成熟度。
我們誠摯歡迎廣大開發(fā)者與用戶來摩爾線程夸娥工場進行體驗。與此同時,開發(fā)者可以在GitHub摩爾線程賬號或者開發(fā)者社區(qū)了解更多:
▼ 摩爾線程GitHub開源社區(qū):
https://github.com/MooreThreads
▼ 摩爾線程開發(fā)者社區(qū):
https://developer.mthreads.com
摩爾線程始終致力于推動開源生態(tài)的發(fā)展,通過技術(shù)開放與生態(tài)共建,加速國產(chǎn)全功能GPU在AI計算領(lǐng)域的規(guī)模化應(yīng)用,為更多用戶提供更智能、高效的解決方案。
▼ 關(guān)于摩爾線程
摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎(chǔ)設(shè)施和一站式解決方案,為各行各業(yè)的數(shù)智化轉(zhuǎn)型提供強大的AI計算支持。
我們的目標是成為具備國際競爭力的GPU領(lǐng)軍企業(yè),為融合人工智能和數(shù)字孿生的數(shù)智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。
推薦閱讀