近日,得一微電子(YEESTOR)發(fā)布集成AI-MemoryX技術(shù)的顯存擴(kuò)展解決方案。該方案依托自研存儲(chǔ)控制芯片和AI存儲(chǔ)系統(tǒng)級(jí)創(chuàng)新,顯著提升單機(jī)的顯存容量,讓32B、70B、110B、671B等DeepSeek系列大模型實(shí)現(xiàn)單機(jī)微調(diào)訓(xùn)練,為AI大模型的微調(diào)訓(xùn)練提供功能強(qiáng)大且經(jīng)濟(jì)實(shí)惠的解決方案。
得一微電子及相關(guān)合作伙伴將提供完整的微調(diào)訓(xùn)練機(jī)解決方案,助力眾多行業(yè)拓展智能應(yīng)用邊界,在產(chǎn)業(yè)競(jìng)爭(zhēng)中占據(jù)先機(jī)。
低成本實(shí)現(xiàn)顯存擴(kuò)展,解鎖百倍大模型微調(diào)訓(xùn)練提升
訓(xùn)練和推理對(duì)GPU顯存的需求存在顯著差異。對(duì)于同一尺寸的模型,訓(xùn)練所需的顯存通常是推理的20倍以上。目前市場(chǎng)上,訓(xùn)推一體機(jī)在支持大模型微調(diào)訓(xùn)練方面仍面臨顯存容量的挑戰(zhàn),通常只能支持7B、14B等大模型的微調(diào)訓(xùn)練,難以支持110B、70B、32B等更大模型的微調(diào)訓(xùn)練。
得一微發(fā)布的AI-MemoryX顯存擴(kuò)展卡,將促進(jìn)訓(xùn)推一體機(jī)能夠支持超大尺寸大模型的微調(diào)訓(xùn)練,幫助客戶支持高達(dá)110B(甚至671B)規(guī)模的訓(xùn)練任務(wù)。同時(shí),AI-MemoryX技術(shù)將原本需耗費(fèi)數(shù)百上千萬(wàn)的硬件擴(kuò)充成本,降低至數(shù)萬(wàn)元級(jí)別,大幅降低了超大模型訓(xùn)練的門檻。這將使得更多企業(yè)甚至個(gè)人都能夠以有限的資源,高效開展大規(guī)模模型的訓(xùn)練與微調(diào)。
高效解決顯存瓶頸,開啟單機(jī)微調(diào)訓(xùn)練新方式
顯存不足,一直是單機(jī)微調(diào)訓(xùn)練超大模型的最大障礙。當(dāng)下受GPU技術(shù)以及商業(yè)模式的限制,單張GPU顯存容量極為有限,中端顯卡的顯存容量大多在48GB到64GB之間。以DeepSeek 70B模型為例,微調(diào)訓(xùn)練所需的顯存高達(dá)1TB到2TB,這意味著需要?jiǎng)佑?0多張顯卡;而對(duì)于DeepSeek 671B模型,更是需要達(dá)到10TB到20TB的顯存,對(duì)應(yīng)300多張顯卡。如此龐大的硬件需求,不僅成本高昂,還使得部署極為復(fù)雜,嚴(yán)重阻礙了大模型單機(jī)微調(diào)的普及。
得一微電子的AI-MemoryX技術(shù)通過其創(chuàng)新性的顯存擴(kuò)展方案,使單機(jī)顯存容量從傳統(tǒng)顯卡的幾十GB提升到10TB級(jí)別,大幅降低了微調(diào)訓(xùn)練對(duì)GPU數(shù)量的需求。得益于此,DeepSeek不同尺寸的大模型(如32B、70B、110B、671B等)僅需1到16張顯卡,配合顯存擴(kuò)展技術(shù),即可高效完成單機(jī)訓(xùn)練微調(diào)。該技術(shù)為大模型在各行業(yè)的應(yīng)用推廣提供了有力支持。
得一微電子推出的 AI-MemoryX 解決方案,是一個(gè)完整的微調(diào)訓(xùn)練機(jī)方案,涵蓋大模型訓(xùn)練框架、顯存擴(kuò)展卡軟件棧以及顯存擴(kuò)展卡X200系列,為大模型微調(diào)訓(xùn)練提供全方位的技術(shù)支持與賦能。
得一微AI-MemoryX技術(shù)特色,發(fā)掘微調(diào)的潛力和價(jià)值
監(jiān)督微調(diào)SFT:小樣本撬動(dòng)大效能
華裔科學(xué)家、“AI教母”李飛飛團(tuán)隊(duì)等研究人員,僅用1000個(gè)樣本對(duì)模型進(jìn)行監(jiān)督微調(diào),并創(chuàng)新性地提出預(yù)算強(qiáng)制(budget forcing)技術(shù),讓s1-32B模型在多個(gè)基準(zhǔn)測(cè)試中超越閉源模型OpenAI o1-preview,成為目前樣本效率極高的推理模型。
s1-32B模型并非從零構(gòu)建,而是基于預(yù)訓(xùn)練模型(阿里通義千問 Qwen2.5-32B - Instruct)進(jìn)行監(jiān)督微調(diào)。這一成果表明,當(dāng)模型知識(shí)基礎(chǔ)足夠扎實(shí)時(shí),少量高質(zhì)量示例即可通過推理鏈激活其潛在推理能力,無需依賴海量數(shù)據(jù),高效且實(shí)用。
思維鏈微調(diào)CoT:注入行業(yè)思維,提升推理深度
各行各業(yè)都有其獨(dú)特的思維方式,而精心設(shè)計(jì)的推理鏈,不僅能助力模型精準(zhǔn)理解問題,還能顯著提升其推理的準(zhǔn)確性和泛化能力。
DeepSeek通過蒸餾技術(shù),將R1模型的思考能力傳遞給其他模型,讓它們也具備R1級(jí)別的思考實(shí)力。企業(yè)開發(fā)者可以提供優(yōu)質(zhì)的行業(yè)問題與示范,引導(dǎo)模型自主深入思考,以微調(diào)為橋梁,將千行百業(yè)的人類專家的思維模式和思考過程融入大模型的推理鏈條中,使模型更契合行業(yè)特點(diǎn)和實(shí)際需求。
強(qiáng)化學(xué)習(xí)微調(diào)RFT:規(guī)則框架下的自我進(jìn)化
每個(gè)行業(yè)都有每個(gè)行業(yè)需要解決的問題和方法。強(qiáng)化學(xué)習(xí)微調(diào),相當(dāng)于賦予AI一套復(fù)雜的規(guī)則與思考框架,使其在反復(fù)實(shí)踐與推理中,逐步掌握解決問題的高效方法。這一訓(xùn)練方式依托微調(diào)數(shù)據(jù)集和測(cè)試數(shù)據(jù)集兩大核心數(shù)據(jù)集。模型先通過微調(diào)數(shù)據(jù)集進(jìn)行學(xué)習(xí),再使用測(cè)試數(shù)據(jù)集驗(yàn)證推理能力,找出不足并針對(duì)性調(diào)整。通過這種持續(xù)迭代的自我訓(xùn)練與驗(yàn)證,模型推理能力不斷攀升,最終在特定領(lǐng)域達(dá)到專業(yè)級(jí)水平,為專業(yè)應(yīng)用場(chǎng)景提供強(qiáng)大支撐。
得一微電子,引領(lǐng)存算技術(shù)新潮流
得一微電子始終錨定存儲(chǔ)控制、存算一體、存算互聯(lián)領(lǐng)域的技術(shù)前沿,致力成為行業(yè)領(lǐng)先的芯片設(shè)計(jì)公司。公司面向企業(yè)級(jí)、車規(guī)級(jí)、工業(yè)級(jí)、消費(fèi)級(jí)等全場(chǎng)景應(yīng)用,提供量身定制的解決方案與服務(wù)。