在近日瑞士舉行的2024年人工智能向善全球峰會(AI for Good Global Summit)上,OpenAI CEO山姆·奧爾特曼(Sam Altman)與《大西洋月刊》CEO尼古拉斯·湯普森(Nicholas Thompson)進行了連線交流,提及AI的全球化、安全性、合成數(shù)據(jù)訓(xùn)練以及下一代大模型等相關(guān)問題。
奧爾特曼在對話中預(yù)測,中國將會擁有自己獨特的大語言模型,與世界其他地區(qū)的模型不同。當(dāng)被問到三年后會有多少基礎(chǔ)的大語言模型存在時,奧爾特曼表示,當(dāng)下有許多模型正在訓(xùn)練,這種趨勢將會持續(xù),“將有成千上萬的大語言模型被開發(fā)出來,但其中只有少數(shù),如10個、20個或類似的數(shù)量,會獲得大量的使用和最密集的資源投入!
奧爾特曼認(rèn)為,我們?nèi)蕴幵贏GI的初級階段,還有許多未知等待去探索,還有許多科學(xué)上的突破即將到來,因此在這一點上做出任何自信的預(yù)測都是非常困難的。
另一點是關(guān)于人工智能的全球化和公平問題,有人認(rèn)為,GPT-4和其他大語言模型在英語、西班牙語和法語上的表現(xiàn)要優(yōu)于斯瓦希里語(一種在非洲廣泛使用的語言)等語言。奧爾特曼則回復(fù),GPT-4o在更多種類的語言上都表現(xiàn)出色,OpenAI此前公布的統(tǒng)計數(shù)據(jù)顯示,GPT-4o已經(jīng)能夠覆蓋97%人群的母語。
關(guān)于OpenAI,近段時間備受關(guān)注的仍然是其安全性問題,在GPT-4o模型發(fā)布不久后,負(fù)責(zé)安全事務(wù)的聯(lián)合創(chuàng)始人、首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)就官宣離職,而另一位在安全領(lǐng)域作出重大貢獻的超級對齊團隊聯(lián)合負(fù)責(zé)人楊·萊克(Jan Leike)也離開OpenAI轉(zhuǎn)投Anthropic,并在社交媒體X上稱“(OpenAI)安全文化和安全流程已經(jīng)讓位給閃亮的產(chǎn)品”。
奧爾特曼在對話中表示,在確保安全性方面,模型的可解釋性是一個值得探究的領(lǐng)域,目前盡管尚未解決可解釋性問題,但他“對正在發(fā)生的許多事情感到非常興奮”。在他看來,對模型內(nèi)部運作的理解越深入,就越能做出更好的決策,“這可以成為我們構(gòu)建和驗證安全性聲明的綜合性方案的一部分!
此外,人道科技中心聯(lián)合創(chuàng)始人兼執(zhí)行主管特里斯坦·哈里斯(Tristan Harris)曾提出一個建議是,大語言模型公司每投入100萬美元用于增強模型的能力,也應(yīng)同等投入100萬美元用于安全性研究。奧爾特曼認(rèn)為,人們往往傾向于把世界簡單地劃分為性能與安全兩個部分,并制定一些聽起來很有道理的政策,而要界定許多工作的性質(zhì)是非常困難的。
如果在生產(chǎn)中使用一個模型,用戶確實會希望它能夠完成既定任務(wù),同時不會產(chǎn)生任何負(fù)面影響。不過,讓模型在既定的界限內(nèi),按照用戶的期望去運行,是一個綜合性的問題。奧爾特曼將這個過程比喻為搭乘飛機,用戶期望它能安全地將自己送達目的地,同時也希望在整個飛行過程中不會出現(xiàn)任何故障。
“在飛機設(shè)計中,有些部分可以明確區(qū)分為能力提升或安全措施,但總體而言,我們是在努力設(shè)計一個綜合系統(tǒng),旨在安全、迅速地將您帶到目的地,并確保飛行中不會出現(xiàn)任何部件脫落的問題!眾W爾特曼的觀點是,有關(guān)產(chǎn)品能力提升和安全措施的這種界限,實際上并沒有表面上看起來那么清晰。
不過,在有關(guān)安全的關(guān)鍵人才離開之后,OpenAI “飛機的機翼”依然穩(wěn)固嗎?針對公眾的質(zhì)疑,奧爾特曼認(rèn)為,這種評價應(yīng)基于公司行動,包括發(fā)布的模型、所開展的工作、進行的科學(xué)研究,實際上公司已經(jīng)進行了對齊研究、建立了安全系統(tǒng)、實施了監(jiān)控措施。
在對話中,談及下一代模型是否會迎來指數(shù)增長的顯著飛躍,奧爾特曼表示,“我們并不認(rèn)為我們正處于任何指數(shù)增長的臨界點!彼J(rèn)為大模型仍然有很大的發(fā)展空間,并預(yù)期在某些領(lǐng)域?qū)崿F(xiàn)巨大的進步,但在其他一些領(lǐng)域可能提升并不如預(yù)期顯著,這與之前每次模型更新時的情況相似。
訓(xùn)練大模型最關(guān)鍵的部分之一是數(shù)據(jù),在對話中奧爾特曼提到,為了訓(xùn)練下一代模型,OpenAI在大量生成合成數(shù)據(jù)用以訓(xùn)練方面進行了各種實驗。但如果訓(xùn)練模型的最佳途徑僅僅是創(chuàng)造數(shù)以萬億計的合成數(shù)據(jù)并將其重新輸入系統(tǒng),這種方法在某種程度上顯得效率不高,“應(yīng)該存在一種機制,讓模型在訓(xùn)練過程中能夠更有效地從數(shù)據(jù)中學(xué)習(xí),我認(rèn)為我們還有許多問題需要解決!
合成數(shù)據(jù)是否會引發(fā)數(shù)據(jù)出錯問題?奧爾特曼認(rèn)為,無論是合成數(shù)據(jù)還是人類生成的數(shù)據(jù),都存在質(zhì)量良莠不齊的問題,關(guān)鍵在于獲取高質(zhì)量的數(shù)據(jù)。只要能夠收集到足夠高質(zhì)量的數(shù)據(jù)來訓(xùn)練模型,或者能夠開發(fā)出提高數(shù)據(jù)效率的方法,從較少的數(shù)據(jù)量中學(xué)習(xí)更多,出錯的問題是可以解決的。