衡宇 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitA
成本不到150元,訓(xùn)練出一個(gè)媲美DeepSeek-R1和OpenAI o1的推理模型?!
這不是洋蔥新聞,而是AI教母李飛飛、斯坦福大學(xué)、華盛頓大學(xué)、艾倫人工智能實(shí)驗(yàn)室等攜手推出的最新杰作:s1。
在數(shù)學(xué)和編程能力的評(píng)測(cè)集上,s1的表現(xiàn)比肩DeepSeek-R1和o1。
而訓(xùn)一個(gè)這樣性能的模型,團(tuán)隊(duì)僅僅用了16個(gè)英偉達(dá)H100,訓(xùn)練耗時(shí)26分鐘。
據(jù)TechCrunch,這個(gè)訓(xùn)練過程消耗了不到50美元的云計(jì)算成本,約合人民幣364.61元;而s1模型作者之一表示,訓(xùn)練s1所需的計(jì)算資源,在當(dāng)下約花20美元(約145.844元)就能租到。
怎么做到的???
s1團(tuán)隊(duì)表示,秘訣只有一個(gè):蒸餾。
簡(jiǎn)單來說,團(tuán)隊(duì)以阿里通義團(tuán)隊(duì)的Qwen2.5- 32B-Instruct作為基礎(chǔ)模型,通過蒸餾谷歌DeepMind的推理模型Gemini 2.0 Flash Thinking實(shí)驗(yàn)版,最終得到了s1模型。
為了訓(xùn)練s1,研究團(tuán)隊(duì)創(chuàng)建了一個(gè)包含1000個(gè)問題(精心挑選那種)的數(shù)據(jù)集,且每個(gè)問題都附有答案,以及Gemini 2.0 Flash Thinking實(shí)驗(yàn)版的思考過程。
目前,項(xiàng)目論文《s1: Simple test-time scaling》已經(jīng)掛上arXiv,模型s1也已在GitHub上開源,研究團(tuán)隊(duì)提供了訓(xùn)練它的數(shù)據(jù)和代碼。
150元成本,訓(xùn)練26分鐘
s1團(tuán)隊(duì)搞這個(gè)花活,起因是OpenAI o1展現(xiàn)了Test-time Scaling的能力。
即「在推理階段通過增加計(jì)算資源或時(shí)間,來提升大模型的性能」,這是原本預(yù)訓(xùn)練Scaling Law達(dá)到瓶頸后的一種新Scaling。
但OpenAI并未公開是如何實(shí)現(xiàn)這一點(diǎn)的。
在復(fù)現(xiàn)狂潮之下,s1團(tuán)隊(duì)的目標(biāo)是尋找到Test-time Scaling的簡(jiǎn)單方法。
過程中,研究人員先構(gòu)建了一個(gè)1000個(gè)樣本的數(shù)據(jù)集,名為s1K。
起初,在遵循質(zhì)量、難度、多樣性原則的基礎(chǔ)上,這個(gè)數(shù)據(jù)集收集了來自MATH、AGIEval等諸多來源的59029個(gè)問題。
經(jīng)去重、去噪后,通過質(zhì)量篩選、基于模型性能和推理痕跡長(zhǎng)度的難度篩選,以及基于數(shù)學(xué)學(xué)科分類的多樣性篩選,最終留下了一個(gè)涵蓋1000個(gè)精心挑選過的問題的數(shù)據(jù)集。
且每個(gè)問題都附有答案,以及谷歌Gemini 2.0 Flash Thinking實(shí)驗(yàn)版的模型思考過程。
這就是最終的s1K。
研究人員表示,Test-time Scaling有2種。
第1種,順序Scaling,較晚的計(jì)算取決于焦躁的計(jì)算(如較長(zhǎng)的推理軌跡)。
第2種,并行Scaling,be like計(jì)算獨(dú)立運(yùn)行(如多數(shù)投票任務(wù))。
s1團(tuán)隊(duì)專注于順序這部分,原因是團(tuán)隊(duì)“從直覺上”認(rèn)為它可以起到更好的Scaling——因?yàn)楹竺娴挠?jì)算可以以中間結(jié)果為基礎(chǔ),從而允許更深入的推理和迭代細(xì)化。
基于此,s1團(tuán)隊(duì)提出了新的順序Scaling方法,以及對(duì)應(yīng)的Benchmark。
研究過程中,團(tuán)隊(duì)提出了一種簡(jiǎn)單的解碼時(shí)間干預(yù)方法budget forcing,在測(cè)試時(shí)強(qiáng)制設(shè)定最大和/或最小的思考token數(shù)量。
具體來說,研究者使用了一種很簡(jiǎn)單的辦法:
直接添加“end-of-thinking token分隔符”和“Final Answer”,來強(qiáng)制設(shè)定思考token數(shù)量上限,從而讓模型提前結(jié)束思考階段,并促使它提供當(dāng)前思考過程中的最佳答案。
為了強(qiáng)制設(shè)定思考過程的token數(shù)量下限,團(tuán)隊(duì)又禁止模型生成“end-of-thinking token分隔符”,并可以選擇在模型當(dāng)前推理軌跡中添加“wait”這個(gè)詞,鼓勵(lì)它多想想,反思反思當(dāng)前的思考結(jié)果,引導(dǎo)最佳答案。
以下是budget forcing這個(gè)辦法的一個(gè)實(shí)操示例:
團(tuán)隊(duì)還為budget forcing提供了baseline。
一是條件長(zhǎng)度控制方法(Conditional length-control methods),該方法依賴于,在提示中告訴模型它應(yīng)該花費(fèi)多長(zhǎng)時(shí)間來生成輸出。
團(tuán)隊(duì)按顆粒度將它們分為Token-conditional控制、步驟條件控制和類條件控制。
Token-conditional控制:在提示詞中,指定Thinking Tokens的上限;
步驟條件控制:指定一個(gè)思考步驟的上限。其中每個(gè)步驟約100個(gè)tokens;
類條件控制:編寫兩個(gè)通用提示,告訴模型思考短時(shí)間或長(zhǎng)時(shí)間。
二是拒絕抽樣(rejection sampling)。
即在抽樣過程中,若某一生成內(nèi)容符合預(yù)先設(shè)定的計(jì)算預(yù)算,就停止計(jì)算。
該算法通過其長(zhǎng)度來捕捉響應(yīng)的后驗(yàn)分布。
而s1模型的整個(gè)訓(xùn)練過程,只用了不到半個(gè)小時(shí)——
團(tuán)隊(duì)在論文中表示,他們使用Qwen2.532B-Instruct模型在s1K數(shù)據(jù)集上進(jìn)行SFT,使用16個(gè)英偉達(dá)H100,訓(xùn)練耗時(shí)26分鐘。
s1研究團(tuán)隊(duì)的Niklas Muennighoff(斯坦福大學(xué)研究員)告訴TechCrunch,訓(xùn)練s1所需的計(jì)算資源,在當(dāng)下約花20美元就能租到。
研究新發(fā)現(xiàn):頻繁抑制思考會(huì)導(dǎo)致死循環(huán)
訓(xùn)出模型后,團(tuán)隊(duì)選用3個(gè)推理基準(zhǔn)測(cè)試,把s1-32B和OpenAI o1系列、DeepSeek-R1系列、阿里通義Qwen2.5系列/QWQ、昆侖萬維Sky系列、Gemini 2.0 Flash Thinking實(shí)驗(yàn)版等多個(gè)模型進(jìn)行對(duì)比。
3個(gè)推理基準(zhǔn)測(cè)試如下:
AIME24:2024年美國(guó)數(shù)學(xué)邀請(qǐng)考試中使用的30個(gè)問題
MATH500:不同難度的競(jìng)賽數(shù)學(xué)問題的基準(zhǔn)
GPQA Diamond:生物、化學(xué)和物理領(lǐng)域的198個(gè)博士級(jí)問題
整體來說,采用了budget forcing的s1-32B擴(kuò)展了更多的test-time compute。
評(píng)測(cè)數(shù)據(jù)顯示,s1-32B在MATH500上拿到了93.0的成績(jī),超過o1-mini,媲美o1和DeepSeek-R1。
不過,如下圖所示,團(tuán)隊(duì)發(fā)現(xiàn),雖然可以用budget forcing和更多的test-time compute來提高s1在AIME24上的性能,在AIME24上比 o1-preview最高提升27%。
但曲線最終在性能提升6倍后趨于平緩。
由此,團(tuán)隊(duì)在論文中寫道:
過于頻繁地抑制思考結(jié)束標(biāo)記分隔符,會(huì)導(dǎo)致模型進(jìn)入重復(fù)循環(huán),而不是繼續(xù)推理。
而如下圖所示,在s1K上訓(xùn)練Qwen2.5-32B-Instruct來得到s1-32B,并為它配備了簡(jiǎn)單的budget forcing后,它采用了不同的scaling范式。
具體來說,通過多數(shù)投票在基礎(chǔ)模型上對(duì)test-time compute進(jìn)行Scale的方法,訓(xùn)出的模型無法趕上s1-32B的性能。
這就驗(yàn)證了團(tuán)隊(duì)之前的“直覺”,即順序Scaling比并行Scaling更有效。
此外,團(tuán)隊(duì)提到,s1-32B僅僅使用了1000個(gè)樣本訓(xùn)練,在AIME24上的成績(jī)就能接近Gemini 2.0 Thinking,是“樣本效率最高的開源數(shù)據(jù)推理模型”。
研究人員還表示,Budget forcing在控制、縮放和性能指標(biāo)上表現(xiàn)最佳。
而其它方法,如Token-conditional控制、步驟條件控制、類條件控制等,均存在各種問題。
One More Thing
s1模型,是在一個(gè)1000個(gè)精挑細(xì)選的小樣本數(shù)據(jù)集上,通過SFT,讓小模型能力在數(shù)學(xué)等評(píng)測(cè)集上性能飆升的研究。
但結(jié)合近期刷爆全網(wǎng)的DeepSeek-R1——以1/50成本比肩o1性能——背后的故事,可以窺見模型推理技術(shù)的更多值得挖掘之處。
模型蒸餾技術(shù)加持下,DeepSeek-R1的訓(xùn)練成本震撼硅谷。
現(xiàn)在,AI教母李飛飛等,又一次運(yùn)用「蒸餾」,花費(fèi)低到令人咋舌的訓(xùn)練成本,做出了一個(gè)能媲美頂尖推理模型的32B推理模型。
一起期待大模型技術(shù)更精彩的2025年吧~