亚洲五月天一区二区三区-日本午夜福利视频在线-日本欧美一区二区不卡免费-日韩深夜视频在线观看

成本不到150元!李飛飛等26分鐘訓(xùn)出個(gè)推理模型,媲美o1和R1,秘訣:用蒸餾

來源:量子位 #GitHub# #李飛飛# #斯坦福#
7898

衡宇 發(fā)自 凹非寺

量子位 | 公眾號(hào) QbitA

成本不到150元,訓(xùn)練出一個(gè)媲美DeepSeek-R1和OpenAI o1的推理模型?!

這不是洋蔥新聞,而是AI教母李飛飛、斯坦福大學(xué)、華盛頓大學(xué)、艾倫人工智能實(shí)驗(yàn)室等攜手推出的最新杰作:s1。

在數(shù)學(xué)和編程能力的評(píng)測(cè)集上,s1的表現(xiàn)比肩DeepSeek-R1和o1。

而訓(xùn)一個(gè)這樣性能的模型,團(tuán)隊(duì)僅僅用了16個(gè)英偉達(dá)H100,訓(xùn)練耗時(shí)26分鐘。

據(jù)TechCrunch,這個(gè)訓(xùn)練過程消耗了不到50美元的云計(jì)算成本,約合人民幣364.61元;而s1模型作者之一表示,訓(xùn)練s1所需的計(jì)算資源,在當(dāng)下約花20美元(約145.844元)就能租到。

怎么做到的???

s1團(tuán)隊(duì)表示,秘訣只有一個(gè):蒸餾。

簡(jiǎn)單來說,團(tuán)隊(duì)以阿里通義團(tuán)隊(duì)的Qwen2.5- 32B-Instruct作為基礎(chǔ)模型,通過蒸餾谷歌DeepMind的推理模型Gemini 2.0 Flash Thinking實(shí)驗(yàn)版,最終得到了s1模型。

為了訓(xùn)練s1,研究團(tuán)隊(duì)創(chuàng)建了一個(gè)包含1000個(gè)問題(精心挑選那種)的數(shù)據(jù)集,且每個(gè)問題都附有答案,以及Gemini 2.0 Flash Thinking實(shí)驗(yàn)版的思考過程。

目前,項(xiàng)目論文《s1: Simple test-time scaling》已經(jīng)掛上arXiv,模型s1也已在GitHub上開源,研究團(tuán)隊(duì)提供了訓(xùn)練它的數(shù)據(jù)和代碼。

150元成本,訓(xùn)練26分鐘

s1團(tuán)隊(duì)搞這個(gè)花活,起因是OpenAI o1展現(xiàn)了Test-time Scaling的能力。

即「在推理階段通過增加計(jì)算資源或時(shí)間,來提升大模型的性能」,這是原本預(yù)訓(xùn)練Scaling Law達(dá)到瓶頸后的一種新Scaling。

但OpenAI并未公開是如何實(shí)現(xiàn)這一點(diǎn)的。

在復(fù)現(xiàn)狂潮之下,s1團(tuán)隊(duì)的目標(biāo)是尋找到Test-time Scaling的簡(jiǎn)單方法。

過程中,研究人員先構(gòu)建了一個(gè)1000個(gè)樣本的數(shù)據(jù)集,名為s1K。

起初,在遵循質(zhì)量、難度、多樣性原則的基礎(chǔ)上,這個(gè)數(shù)據(jù)集收集了來自MATH、AGIEval等諸多來源的59029個(gè)問題。

經(jīng)去重、去噪后,通過質(zhì)量篩選、基于模型性能和推理痕跡長(zhǎng)度的難度篩選,以及基于數(shù)學(xué)學(xué)科分類的多樣性篩選,最終留下了一個(gè)涵蓋1000個(gè)精心挑選過的問題的數(shù)據(jù)集。

且每個(gè)問題都附有答案,以及谷歌Gemini 2.0 Flash Thinking實(shí)驗(yàn)版的模型思考過程。

這就是最終的s1K。

研究人員表示,Test-time Scaling有2種。

第1種,順序Scaling,較晚的計(jì)算取決于焦躁的計(jì)算(如較長(zhǎng)的推理軌跡)。

第2種,并行Scaling,be like計(jì)算獨(dú)立運(yùn)行(如多數(shù)投票任務(wù))。

s1團(tuán)隊(duì)專注于順序這部分,原因是團(tuán)隊(duì)“從直覺上”認(rèn)為它可以起到更好的Scaling——因?yàn)楹竺娴挠?jì)算可以以中間結(jié)果為基礎(chǔ),從而允許更深入的推理和迭代細(xì)化。

基于此,s1團(tuán)隊(duì)提出了新的順序Scaling方法,以及對(duì)應(yīng)的Benchmark。

研究過程中,團(tuán)隊(duì)提出了一種簡(jiǎn)單的解碼時(shí)間干預(yù)方法budget forcing,在測(cè)試時(shí)強(qiáng)制設(shè)定最大和/或最小的思考token數(shù)量。

具體來說,研究者使用了一種很簡(jiǎn)單的辦法:

直接添加“end-of-thinking token分隔符”和“Final Answer”,來強(qiáng)制設(shè)定思考token數(shù)量上限,從而讓模型提前結(jié)束思考階段,并促使它提供當(dāng)前思考過程中的最佳答案。

為了強(qiáng)制設(shè)定思考過程的token數(shù)量下限,團(tuán)隊(duì)又禁止模型生成“end-of-thinking token分隔符”,并可以選擇在模型當(dāng)前推理軌跡中添加“wait”這個(gè)詞,鼓勵(lì)它多想想,反思反思當(dāng)前的思考結(jié)果,引導(dǎo)最佳答案。

以下是budget forcing這個(gè)辦法的一個(gè)實(shí)操示例:

團(tuán)隊(duì)還為budget forcing提供了baseline。

一是條件長(zhǎng)度控制方法(Conditional length-control methods),該方法依賴于,在提示中告訴模型它應(yīng)該花費(fèi)多長(zhǎng)時(shí)間來生成輸出。

團(tuán)隊(duì)按顆粒度將它們分為Token-conditional控制、步驟條件控制和類條件控制。

  • Token-conditional控制:在提示詞中,指定Thinking Tokens的上限;

  • 步驟條件控制:指定一個(gè)思考步驟的上限。其中每個(gè)步驟約100個(gè)tokens;

  • 類條件控制:編寫兩個(gè)通用提示,告訴模型思考短時(shí)間或長(zhǎng)時(shí)間。

二是拒絕抽樣(rejection sampling)。

即在抽樣過程中,若某一生成內(nèi)容符合預(yù)先設(shè)定的計(jì)算預(yù)算,就停止計(jì)算。

該算法通過其長(zhǎng)度來捕捉響應(yīng)的后驗(yàn)分布。

而s1模型的整個(gè)訓(xùn)練過程,只用了不到半個(gè)小時(shí)——

團(tuán)隊(duì)在論文中表示,他們使用Qwen2.532B-Instruct模型在s1K數(shù)據(jù)集上進(jìn)行SFT,使用16個(gè)英偉達(dá)H100,訓(xùn)練耗時(shí)26分鐘

s1研究團(tuán)隊(duì)的Niklas Muennighoff(斯坦福大學(xué)研究員)告訴TechCrunch,訓(xùn)練s1所需的計(jì)算資源,在當(dāng)下約花20美元就能租到。

研究新發(fā)現(xiàn):頻繁抑制思考會(huì)導(dǎo)致死循環(huán)

訓(xùn)出模型后,團(tuán)隊(duì)選用3個(gè)推理基準(zhǔn)測(cè)試,把s1-32B和OpenAI o1系列、DeepSeek-R1系列、阿里通義Qwen2.5系列/QWQ、昆侖萬維Sky系列、Gemini 2.0 Flash Thinking實(shí)驗(yàn)版等多個(gè)模型進(jìn)行對(duì)比。

3個(gè)推理基準(zhǔn)測(cè)試如下:

  • AIME24:2024年美國(guó)數(shù)學(xué)邀請(qǐng)考試中使用的30個(gè)問題

  • MATH500:不同難度的競(jìng)賽數(shù)學(xué)問題的基準(zhǔn)

  • GPQA Diamond:生物、化學(xué)和物理領(lǐng)域的198個(gè)博士級(jí)問題

整體來說,采用了budget forcing的s1-32B擴(kuò)展了更多的test-time compute。

評(píng)測(cè)數(shù)據(jù)顯示,s1-32B在MATH500上拿到了93.0的成績(jī),超過o1-mini,媲美o1和DeepSeek-R1。

不過,如下圖所示,團(tuán)隊(duì)發(fā)現(xiàn),雖然可以用budget forcing和更多的test-time compute來提高s1在AIME24上的性能,在AIME24上比 o1-preview最高提升27%。

但曲線最終在性能提升6倍后趨于平緩。

由此,團(tuán)隊(duì)在論文中寫道:

過于頻繁地抑制思考結(jié)束標(biāo)記分隔符,會(huì)導(dǎo)致模型進(jìn)入重復(fù)循環(huán),而不是繼續(xù)推理。

而如下圖所示,在s1K上訓(xùn)練Qwen2.5-32B-Instruct來得到s1-32B,并為它配備了簡(jiǎn)單的budget forcing后,它采用了不同的scaling范式。

具體來說,通過多數(shù)投票在基礎(chǔ)模型上對(duì)test-time compute進(jìn)行Scale的方法,訓(xùn)出的模型無法趕上s1-32B的性能。

這就驗(yàn)證了團(tuán)隊(duì)之前的“直覺”,即順序Scaling比并行Scaling更有效。

此外,團(tuán)隊(duì)提到,s1-32B僅僅使用了1000個(gè)樣本訓(xùn)練,在AIME24上的成績(jī)就能接近Gemini 2.0 Thinking,是“樣本效率最高的開源數(shù)據(jù)推理模型”。

研究人員還表示,Budget forcing在控制、縮放和性能指標(biāo)上表現(xiàn)最佳。

而其它方法,如Token-conditional控制、步驟條件控制、類條件控制等,均存在各種問題。

One More Thing

s1模型,是在一個(gè)1000個(gè)精挑細(xì)選的小樣本數(shù)據(jù)集上,通過SFT,讓小模型能力在數(shù)學(xué)等評(píng)測(cè)集上性能飆升的研究。

但結(jié)合近期刷爆全網(wǎng)的DeepSeek-R1——以1/50成本比肩o1性能——背后的故事,可以窺見模型推理技術(shù)的更多值得挖掘之處。

模型蒸餾技術(shù)加持下,DeepSeek-R1的訓(xùn)練成本震撼硅谷。

現(xiàn)在,AI教母李飛飛等,又一次運(yùn)用「蒸餾」,花費(fèi)低到令人咋舌的訓(xùn)練成本,做出了一個(gè)能媲美頂尖推理模型的32B推理模型。

一起期待大模型技術(shù)更精彩的2025年吧~

責(zé)編: 集小微
來源:量子位 #GitHub# #李飛飛# #斯坦福#
THE END
關(guān)閉
加載

PDF 加載中...

欧美猛男一区二区三区快播| 东京热无码AV一区二区三区| 毛片日产av一区二区三区四区| 欧美大鸡巴插入骚b| 欧美黑屌操B内射冒白浆| 春宵福利导航91| 大鸡巴操大屁股美女视频| 少妇勾搭外卖员在线观看| 裸体午夜一级视频| 下载风骚美女想吃大机吧| 色噜噜在线一区二区三区| 黄色免费老人操逼| 中文字幕日韩亚洲| 男生的小鸡鸡插进女生的桃子 里| 日韩激情精品久久久一区二区| 91精品国产综合久久久蜜 | 97人妻精品一区二区三区视频| 欧美成人精品一区二区免费看| 色综合色狠狠天天综合色| 日韩无码av三级片| 蜜臀av一区二区三区免费观| 非洲男生操男生屁眼视频| 偷窥国内肥臀老熟女视频| 午夜性无码视频在线播放| 日韩毛片一区视频免费在线观看 | 裸体美女被操的啊啊直叫| 久久99热精品在线观看| 插欧美美女逼逼逼逼| 老司机午夜精品视频无码| 久久久久久久 亚洲精品| 亚洲二亚洲欧美一区vr| 一区二区三区中文字幕免费在线| 男生的小鸡鸡插进女生的桃子 里| 国产精品无码毛片久久久| 91性潮久久久久久久久| 精品美女久久久久久嘘嘘| 激烈18禁高潮视频免费| 国产乱精品一区二区三区视频了| 女人182毛片a级毛片| 国产青青操骚货在线观看| 久久久精品欧美一区二区三免费 |