近日,南京大學(xué)王中風(fēng)教授團(tuán)隊(duì)發(fā)表的論文《An Algorithm-Hardware Co-Optimized Framework for Accelerating N:M Sparse Transformers》,榮獲2025年IEEE超大規(guī)模集成電路系統(tǒng)會(huì)刊 (IEEE Transactions on Very Large Scale Integration Systems,以下簡稱VLSI會(huì)刊) 年度最佳論文獎(jiǎng)。
獲獎(jiǎng)?wù)撐奶岢隽艘环N算法-硬件協(xié)同優(yōu)化Transformer稀疏加速框架。Transformer模型是當(dāng)今主流深度神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)架構(gòu),由它衍生出DeepSeek、Qwen、GPT、Llama等商用大模型。因此對(duì)Transformer的加速技術(shù)具有實(shí)際需求和廣泛應(yīng)用前景。這項(xiàng)研究工作通過繼承式動(dòng)態(tài)剪枝機(jī)制,將英偉達(dá)現(xiàn)有GPU架構(gòu)支持的固定2:4稀疏模式成功拓展到任意整數(shù)比例N:M的稀疏模式上;通過算法和架構(gòu)的聯(lián)合優(yōu)化,在滿足用戶給定精度需求的同時(shí)實(shí)現(xiàn)了高效硬件加速,大幅提升了模型部署的靈活性和計(jì)算效率,為AI的推廣應(yīng)用提供了有力的技術(shù)支持。
由方超(南京大學(xué)電子科學(xué)與工程學(xué)院2019級(jí)直博生)作為第一作者、王中風(fēng)教授為通訊作者的這篇VLSI會(huì)刊論文,自2022年11月見刊以來,長達(dá)22個(gè)月位列該期刊月度熱點(diǎn)論文榜單,累計(jì)下載量突破3,500次(IEEE Xplore),谷歌學(xué)術(shù)引用逾60次。論文中提出的稀疏加速框架已獲得麻省理工學(xué)院、耶魯大學(xué)、清華大學(xué)及中國科學(xué)院大學(xué)等高校以及英偉達(dá)、Meta等國際著名企業(yè)的廣泛關(guān)注。
VLSI會(huì)刊是國際集成電路設(shè)計(jì)領(lǐng)域的旗艦期刊之一。該期刊年度最佳論文獎(jiǎng)旨在表彰過去三年內(nèi)在該刊發(fā)表的最具創(chuàng)新性和影響力的研究成果,評(píng)選標(biāo)準(zhǔn)嚴(yán)格,入選論文須在集成電路前沿領(lǐng)域?qū)崿F(xiàn)原創(chuàng)性理論突破并具備實(shí)際應(yīng)用價(jià)值。自1995年設(shè)立以來,該獎(jiǎng)項(xiàng)每年至多授予一篇論文,有多年空缺的經(jīng)歷。