隨著全球生成式AI競(jìng)爭(zhēng)加劇,OpenAI卻再次經(jīng)歷人事動(dòng)蕩。
近日,OpenAI聯(lián)合創(chuàng)始團(tuán)隊(duì)成員、負(fù)責(zé)超級(jí)對(duì)齊項(xiàng)目的John Schulman宣布離職加入Anthropic,而另一聯(lián)合創(chuàng)始人、OpenAI總裁Greg Brockman則表示,將延長(zhǎng)休假至今年底,但未透露離職意向。此外,OpenAI聯(lián)合創(chuàng)始人、時(shí)任首席科學(xué)家Ilya Sutskever和對(duì)齊團(tuán)隊(duì)主管Jan Lei日前也已離職,其負(fù)責(zé)的超級(jí)對(duì)齊團(tuán)隊(duì)也被傳已經(jīng)解散。
目前,OpenAI的原11人創(chuàng)始團(tuán)隊(duì)成員已大幅縮減,只有Sam Altman、Wojciech Zaremba和暫休假的Greg Brockman三人仍在任職。而隨著多位聯(lián)合創(chuàng)始人離開(kāi),這或意味著OpenAI對(duì)人工智能對(duì)齊方面關(guān)注變得更少,抑或?qū)I安全的投入重點(diǎn)發(fā)生了變化。
另一方面,在商業(yè)化進(jìn)展并不順利同時(shí),OpenAI還被指推動(dòng)商業(yè)目標(biāo)過(guò)于 “激進(jìn)”、“背離非營(yíng)利組織的初心”等。面對(duì)諸多挑戰(zhàn)與質(zhì)疑,以及重要骨干的紛紛出走,OpenAI似乎走到了新的十字路口,下一代GPT以及AGI是否會(huì)受人事變動(dòng)的影響還需繼續(xù)觀察。而在這背后,OpenAI內(nèi)部對(duì)安全方面達(dá)成共識(shí)至關(guān)重要,這或?qū)⒊蔀椤岸êI襻槨薄?/p>
再添重要人事變動(dòng)
繼去年11月發(fā)生“宮斗”大戲后,OpenAI內(nèi)部持續(xù)出現(xiàn)重要人事變動(dòng)。近日,OpenAI的創(chuàng)始團(tuán)隊(duì)成員、負(fù)責(zé)超級(jí)對(duì)齊項(xiàng)目的John Schulman宣布離職,轉(zhuǎn)而加入Anthropic,并繼續(xù)研究AI超級(jí)對(duì)齊等。
John Schulman在社交媒體發(fā)文表示,作出離開(kāi)OpenAI并加入Anthropic這一決定是因?yàn)樗MM(jìn)一步關(guān)注人工智能對(duì)齊,并重返實(shí)際技術(shù)工作。他還強(qiáng)調(diào),其離職并不是因?yàn)镺penAI缺乏對(duì)于對(duì)齊研究的支持,相反OpenAI一直致力于在這一領(lǐng)域進(jìn)行投資。
OpenAI CEO Sam Altman發(fā)文感謝了John Schulman對(duì)于OpenAI所做的貢獻(xiàn),并稱(chēng)John Schulman是一位才華橫溢的杰出研究員,對(duì)產(chǎn)品和社會(huì)有深刻思考。
據(jù)悉,John Schulman于2015年作為OpenAI的11名聯(lián)合創(chuàng)始人之一加入公司,曾被稱(chēng)為“ChatGPT架構(gòu)師”。據(jù)其發(fā)布在個(gè)人網(wǎng)站上的介紹,他獲得加州大學(xué)伯克利分校計(jì)算機(jī)博士學(xué)位,聯(lián)合領(lǐng)導(dǎo)OpenAI的“后訓(xùn)練(post training)”團(tuán)隊(duì),即對(duì)模型進(jìn)行精調(diào)后以ChatGPT或API接口的形式上線。
Anthropic是由前OpenAI研究高管和員工創(chuàng)建的公司,旗下?lián)碛蠧laude系列大模型,被認(rèn)為是OpenAI的最強(qiáng)競(jìng)爭(zhēng)對(duì)手。今年6月,Anthropic發(fā)布最新模型Claude 3.5 Sonnet,該模型在研究生水平推理 (GPQA)、編碼能力 (HumanEval)、文本推理(DROP)等方面的成績(jī)均好于GPT-4o,而推理速度和成本僅與上一代中檔模型相當(dāng)。目前,Anthropic已接連獲得谷歌、亞馬遜等科技巨頭的數(shù)十億美元投資。
在John Schulman宣布離職同一日,OpenAI總裁Greg Brockman也發(fā)文稱(chēng)將休假至年底,但并未透露離職意向。他表示,這是其聯(lián)合成立OpenAI 九年后的第一次休息,“我們?nèi)匀恍枰獦?gòu)建安全的AGI(通用人工智能),這一任務(wù)遠(yuǎn)未完成?!?/p>
但在這個(gè)關(guān)鍵的時(shí)候選擇長(zhǎng)時(shí)間休假,也引發(fā)了不少猜測(cè),屆時(shí)去留無(wú)從得知。
Greg Brockman是ChatGPT商業(yè)化的重要推動(dòng)者,一直被視作Sam Altman最可靠的盟友。此前,Ilya Sustkever聯(lián)合四位董事會(huì)成員將Altman和前董事長(zhǎng)Brockman一起逐出了董事會(huì),彼時(shí)的管理權(quán)爭(zhēng)奪戰(zhàn)中,Brockman在陣前沖鋒,發(fā)布了大量細(xì)節(jié)支持Altman。
另有消息稱(chēng),OpenAI的產(chǎn)品負(fù)責(zé)人Peter Deng也將離職,但目前尚未公布動(dòng)向。Peter Deng是硅谷知名產(chǎn)品經(jīng)理,曾任谷歌、Instagram、Facebook、Uber等公司產(chǎn)品經(jīng)理,去年加入OpenAI任消費(fèi)產(chǎn)品副總裁,負(fù)責(zé)ChatGPT背后的產(chǎn)品、設(shè)計(jì)和工程團(tuán)隊(duì)。
而在OpenAI再現(xiàn)人事動(dòng)蕩同時(shí),特斯拉CEO馬斯克再次對(duì)OpenAI及其首席執(zhí)行官阿爾特曼提起訴訟,指控OpenAI將利潤(rùn)和商業(yè)利益置于公共利益之上,背離了創(chuàng)立公司時(shí)造福全人類(lèi)的初衷,而且涉嫌騙取自己向OpenAI投入大量時(shí)間和數(shù)千萬(wàn)美元的種子基金。
值得一提的是,今年2月,馬斯克曾對(duì)OpenAI和Altman提起過(guò)類(lèi)似的訴訟。6月,在法官準(zhǔn)備審理OpenAI駁回此案請(qǐng)求的前一天,馬斯克沒(méi)有給出任何解釋而撤銷(xiāo)了訴訟。但新訴訟的篇幅幾乎是原訴訟的兩倍,同時(shí)還新增了對(duì)OpenAI涉嫌敲詐勒索的指控。
無(wú)論是從聯(lián)合創(chuàng)始人離職,還是特斯拉的起訴來(lái)看,OpenAI正面臨嚴(yán)峻的挑戰(zhàn)。而在這背后,OpenAI對(duì)AI安全的平衡裁定以及商業(yè)化推動(dòng)過(guò)于“激進(jìn)”或是關(guān)鍵矛盾點(diǎn)。
核心高管相繼離職
隨著AI安全重要性與日劇增,越發(fā)受到世界各地關(guān)注,OpenAI語(yǔ)言模型的對(duì)齊(alignment)、安全性和透明性已經(jīng)成為業(yè)界焦點(diǎn)。其中,對(duì)齊是人工智能控制領(lǐng)域的一個(gè)主要的問(wèn)題,即要求AI系統(tǒng)的目標(biāo)要和人類(lèi)的價(jià)值觀與利益保持一致。
OpenAI稱(chēng),要解決超級(jí)人工智能對(duì)人類(lèi)造成的風(fēng)險(xiǎn),人類(lèi)需要建立新的監(jiān)管方式并解決超級(jí)人工智能的對(duì)齊問(wèn)題,即如何確保比人類(lèi)聰明得多的超級(jí)人工智能會(huì)遵循人類(lèi)的想法。
2023年7月,OpenAI成立超級(jí)對(duì)齊團(tuán)隊(duì),由OpenAI聯(lián)合創(chuàng)始人、時(shí)任首席科學(xué)家Ilya Sutskever和對(duì)齊團(tuán)隊(duì)主管Jan Lei共同領(lǐng)導(dǎo)。在該部門(mén)成立的同時(shí),OpenAI還宣布,未來(lái)四年內(nèi),將目前擁有的計(jì)算資源的20%用于解決超級(jí)對(duì)齊問(wèn)題。
雖然Sam Altman置頂?shù)囊粭l推文仍是安全相關(guān),即將為AI安全相關(guān)研究和開(kāi)發(fā)工作,保障提供至少20%計(jì)算資源,但OpenAI內(nèi)部關(guān)于AI安全的分析問(wèn)題已經(jīng)越發(fā)嚴(yán)重。
例如Ilya Sutskever曾在采訪中提到ChatGPT可能有意識(shí),世界需要清醒認(rèn)識(shí)到他的公司和其他公司正在創(chuàng)造的技術(shù)的真正力量。而Altman近期稱(chēng),“人工智能對(duì)齊問(wèn)題還不能說(shuō)完全解決,但目前讓人工智能系統(tǒng)學(xué)會(huì)如何按一套價(jià)值觀行事,效果比我想象的更好?!?/p>
今年5月15日,即Ilya Sutskever在參與罷免CEO Sam Altman事件半年后,正式宣布從OpenAI離職。Ilya Sutskever在社交平臺(tái)X上宣布,他將在近十年后離開(kāi)公司,相信在首席執(zhí)行官Altman等人的領(lǐng)導(dǎo)下,能夠打造出既安全又有益的通用人工智能。
據(jù)知情人士透露,Ilya Sutskever的退出導(dǎo)致OpenA的分歧嚴(yán)重到了無(wú)法調(diào)和的地步。
緊接著,超級(jí)對(duì)齊團(tuán)隊(duì)另一位負(fù)責(zé)人Jan Leike也宣布離職,并稱(chēng)OpenAI需要成為一家安全之上的AI公司。Jan Leike隨后發(fā)文稱(chēng)己加入Anthropic,繼續(xù)超級(jí)對(duì)齊的研究。
對(duì)于離職原因,Leike稱(chēng),超級(jí)對(duì)齊團(tuán)隊(duì)一直在努力爭(zhēng)取資源?!斑^(guò)去幾個(gè)月里,我門(mén)的團(tuán)隊(duì)一直在逆風(fēng)航行,有時(shí)在計(jì)算資源上掙扎,而且越來(lái)越難以完成這項(xiàng)關(guān)鍵的研究?!彼€表示,公司不夠關(guān)注AI相關(guān)的安全措施,離職是因?yàn)樗cOpenAI在公司的“核心優(yōu)先事項(xiàng)”上存在一系列分歧。另?yè)?jù)報(bào)道,OpenAI此后解散了超級(jí)對(duì)齊團(tuán)隊(duì)。
直至5月28日,OpenAI在官網(wǎng)宣布成立董事會(huì)安全委員會(huì),其中負(fù)責(zé)對(duì)齊科學(xué)的主管正是此次離職的John Schulman。而如今,隨著John Schulman的離職,OpenAI創(chuàng)始團(tuán)隊(duì)中,僅剩Sam Altman、Greg Brockman、Wojciech Zaremba三人仍在OpenAI任職。
至于OpenAI的8位前聯(lián)合創(chuàng)始人離職后去向,分別包括馬斯克專(zhuān)注于特斯拉、x.AI和SpaceX等,llya Sutskever創(chuàng)立Safe Superintelligence,Trevor Blackwell成為行業(yè)學(xué)者,Vicki Cheung創(chuàng)立Gantry,Andrej Karpathy創(chuàng)立Eureka Labs,Durk Kingma加入Google Brain,Pamela Vagata創(chuàng)立Pebblebed,以及John Schulman加入Anthropic。
其中絕大多數(shù)去向仍為人工智能領(lǐng)域。例如Ilya Sutskever提到,由于專(zhuān)注于安全超級(jí)智能,公司不會(huì)受到管理開(kāi)銷(xiāo)或產(chǎn)品周期的干擾,也不會(huì)受到短期商業(yè)壓力的影響。在外界看來(lái),這似乎是在影射在追逐盈利和商業(yè)化道路上逐漸降低安全要求的OpenAI。
此外,馬斯克去年創(chuàng)立了人工智能初創(chuàng)公司xAI,于今年5月完成新一輪60億美元融資,融資規(guī)模僅次于OpenAI,推高公司估值至240億美元。
前進(jìn)道路更多“陰霾”
OpenAI的人事動(dòng)蕩早有跡可循,而且對(duì)齊發(fā)展路徑造成重要影響。
去年11月,OpenAI爆發(fā)震驚硅谷乃至全世界的“宮斗”大戲,其中焦點(diǎn)事件包括三天三換CEO、“推手”倒戈、700員工聯(lián)名“逼宮”、投資者發(fā)起訴訟威脅、微軟介入助攻… 在這背后,究其根源既有OpenAI“加速主義“與“安全主義”的路線之爭(zhēng),以及凸顯出有效利他主義社會(huì)運(yùn)動(dòng)在硅谷大大小小的AI公司中間制造的裂痕。
在OpenAI內(nèi)部,Sam Altman是“加速主義”代表,而Ilya Sutskeve則可謂“超級(jí)對(duì)齊”代表。然而,鑒于Sutskeve等人離職以及超級(jí)對(duì)齊團(tuán)隊(duì)解散,OpenAI或?qū)⑦M(jìn)入全面加速主義發(fā)展階段。這一發(fā)展導(dǎo)向或能在馬斯克的起訴文件窺見(jiàn)一斑。
馬斯克的訴訟文件中指出,該起訴是“利他主義與貪婪之爭(zhēng)的典型案例” Sam Altman等被告利用虛假的人道主義使命誘導(dǎo)而投資。此外,馬斯克要求法院裁定OpenAI的最新模型是否已實(shí)現(xiàn)AGI。因?yàn)橐罁?jù)協(xié)議一旦實(shí)現(xiàn)AGI,微軟將不再有權(quán)使用OpenAI的技術(shù)。
他還稱(chēng),OpenAI可能出于經(jīng)濟(jì)利益考量,推遲公布其已實(shí)現(xiàn)AGI。
據(jù)悉,5月底,OpenAI在一篇博文中透露,已開(kāi)始訓(xùn)練下一個(gè)前沿模型,將在構(gòu)建AGI的使命中提供更高級(jí)別的能力,但并未明確是否命名為GPT-5。7月,Sam Altman則稱(chēng),開(kāi)發(fā)GPT-5還需要一些時(shí)間,相關(guān)的技術(shù)仍處于早期階段,存在數(shù)據(jù)和算法方面的問(wèn)題。
直至8月6日,OpenAI表示,在今年10月即將舉辦的開(kāi)發(fā)者大會(huì)OpenAI DevDay上,不打算發(fā)布下一個(gè)旗艦?zāi)P?,?huì)更專(zhuān)注于更新其API和開(kāi)發(fā)者服務(wù)。
在推進(jìn)AGI的進(jìn)程上,OpenAI已創(chuàng)建了一套分級(jí)衡量系統(tǒng),將人工智能劃分為五個(gè)等級(jí):
其中,當(dāng)前的ChatGPT等聊天機(jī)器人還處于第一級(jí)水平;第二級(jí)相當(dāng)于一個(gè)可以解決基本問(wèn)題的系統(tǒng),其水平相當(dāng)于擁有博士學(xué)位的人;第三級(jí)是指能夠代表用戶采取行動(dòng)的人工智能代理;第四級(jí)是可以自我創(chuàng)新的人工智能;第五級(jí)則是實(shí)現(xiàn)AGI的最后一步,即人工智能可以執(zhí)行人類(lèi)的全部工作。
OpenAI聲稱(chēng),其人工智能已經(jīng)接近第二級(jí)的水平。但AGI還有很長(zhǎng)的路要走,首先就需要達(dá)到超強(qiáng)的計(jì)算能力。多位專(zhuān)家對(duì)AGI給出的時(shí)間表存在很大差異,OpenAI內(nèi)部也是如此。2023年10月,Sam Altman表示,我們“大約需要五年時(shí)間”才能實(shí)現(xiàn)AGI。
在這背后,或許也有OpenAI的現(xiàn)實(shí)考量。業(yè)內(nèi)人士稱(chēng),“OpenAI的營(yíng)收在35億至45億美元之間,但其運(yùn)營(yíng)虧損可能高達(dá)50億美元,收入遠(yuǎn)遠(yuǎn)無(wú)法覆蓋成本。而為了推出下一代的大模型GPT5,OpenAI需要更多的數(shù)據(jù)和算力,但卻沒(méi)有清晰模式的商業(yè)產(chǎn)品?!?/p>
無(wú)論如何,從GPT-5發(fā)布延遲,SerachGPT演示出錯(cuò),到7萬(wàn)億美元造芯等,彰顯出OpenA的研發(fā)和商業(yè)化之路并不順利,而且被指推進(jìn)商業(yè)化目標(biāo) “激進(jìn)”、“背離非營(yíng)利組織的初心”。在面臨著諸多挑戰(zhàn)與質(zhì)疑中,OpenAI似乎走到了一個(gè)新的十字路口。
業(yè)內(nèi)普遍認(rèn)為,重要骨干紛紛出走,將讓麻煩不斷的OpenAI雪上加霜,為其前進(jìn)的道路帶來(lái)更多的陰霾,下一代GPT以及AGI是否會(huì)受人事變動(dòng)的影響還需繼續(xù)觀察。OpenAI能否破障?或許取決于在安全這一核心問(wèn)題上能否被妥善處置,以及內(nèi)部能否達(dá)成共識(shí)。