OpenAI首席執(zhí)行官Sam Altman在X上的一篇新文章中透露,OpenAI有望在今年年底前“上線超過(guò)100萬(wàn)個(gè)GPU”。
對(duì)比之下,埃隆馬斯克的xAI在今年早些時(shí)候憑借其Grok 4模型引起轟動(dòng),該模型運(yùn)行在大約20萬(wàn)個(gè)英偉達(dá)H100 GPU上。
OpenAI的計(jì)算能力是Grok 4模型的5倍,但對(duì)于Altman來(lái)說(shuō)這還不夠。“為團(tuán)隊(duì)感到非常自豪......”他寫道,“但現(xiàn)在他們最好開始研究如何將其提高至100萬(wàn)個(gè)GPU的100倍?!?/p>
早在2月份,Altman就承認(rèn)OpenAI不得不放慢GPT-4.5的推出速度,因?yàn)樗麄儗?shí)際上“GPU 用完了”。這可不是小問(wèn)題;考慮到英偉達(dá)的頂級(jí)AI硬件到明年的訂單也已售罄,這可謂一記警鐘。此后,Altman將計(jì)算擴(kuò)展作為首要任務(wù),尋求合作伙伴關(guān)系和基礎(chǔ)設(shè)施項(xiàng)目。
按照目前的市場(chǎng)價(jià)格,1億塊GPU的成本約為3萬(wàn)億美元——幾乎相當(dāng)于英國(guó)的 GDP,這還不包括電力需求或容納這些GPU所需的數(shù)據(jù)中心。英偉達(dá)短期內(nèi)根本不可能生產(chǎn)出這么多芯片,更不用說(shuō)滿足所有GPU的能源需求了。
OpenAI并非僅僅囤積英偉達(dá)硬件。雖然微軟的Azure仍然是其主要的云服務(wù)骨干,但OpenAI 已與甲骨文合作構(gòu)建自己的數(shù)據(jù)中心,并且據(jù)傳正在探索谷歌的TPU加速器,以使其計(jì)算堆棧多樣化。這是一場(chǎng)更大規(guī)模軍備競(jìng)賽的一部分,從Meta到亞馬遜,每家公司都在自主研發(fā)AI芯片,并大力投資高帶寬內(nèi)存(HBM),以支持這些龐大的模型。Altman則暗示了OpenAI自己的定制芯片計(jì)劃,考慮到公司不斷增長(zhǎng)的規(guī)模,這并非偶然。(校對(duì)/李梅)