天天看熱訊:OpenAI首席科學(xué)家:AI幻覺是個(gè)大問題,但很有可能被「治愈」
Craig S. Smith 是《紐約時(shí)報(bào)》的前記者和高管,是「 Eye on AI 」播客的主持人。不久之前,他采訪了 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever。本文是對(duì)此次采訪內(nèi)容的整理,英文首發(fā)于 Forbes,機(jī)器之心經(jīng)授權(quán)發(fā)布。
(相關(guān)資料圖)
當(dāng)我們飛速邁向人工智能的未來時(shí),很多評(píng)論家都在大聲質(zhì)疑我們是否發(fā)展得太快?科技巨頭、研究者和投資者都似乎在瘋狂開發(fā)最先進(jìn)的人工智能。很多人擔(dān)心他們是否考慮過 AI 帶來的風(fēng)險(xiǎn)呢?
這個(gè)問題并非完全無解??梢苑判模袛?shù)百個(gè)聰明的頭腦正在考慮反烏托邦可能性以及避免它們的方法。但未來就是未知,ChatGPT 這種強(qiáng)大新技術(shù)的影響與互聯(lián)網(wǎng)出現(xiàn)時(shí)一樣難以想象——有好的,也會(huì)有壞的。未來也肯定會(huì)有強(qiáng)大的人工智能系統(tǒng),我們的孫子輩甚至?xí)懈訌?qiáng)大的人工智能。這是無法阻止的。
我曾與 OpenAI 的聯(lián)合創(chuàng)始人 Ilya Stutskever 談過這項(xiàng)新技,就在 OpenAI 的巨型人工智能系統(tǒng) GPT-4 發(fā)布之前。
GPT 是生成式預(yù)訓(xùn)練 Transformer(Generative Pre-trained Transformer)的縮寫,這三個(gè)重要的單詞可以幫助我們理解這個(gè)荷馬史詩般的波呂斐摩斯:
Transformer 是這個(gè)巨型系統(tǒng)核心算法的名稱、預(yù)訓(xùn)練(Pre-trained 是指通過大量文本語料庫進(jìn)行訓(xùn)練,讓它理解語言的基本模式和關(guān)系——簡(jiǎn)而言之,讓它了解世界。生成( Generative ),意味著這種人工智能可以從這個(gè)基礎(chǔ)知識(shí)中創(chuàng)造新的思想。
人工智能已經(jīng)接管了我們生活的許多方面。但即將到來的AI更先進(jìn)、 也更強(qiáng)大。我們正在進(jìn)入未知的領(lǐng)域。值得花一點(diǎn)時(shí)間考慮一下這意味著什么。但同樣重要的是不要反應(yīng)過度,不要像烏龜一樣躲避正照耀我們的陽光。在荷馬的史詩《奧德賽》中,獨(dú)眼巨人波呂斐摩斯把奧德修斯和他的船員困在他的洞穴里,打算吃掉他們。但是奧德修斯設(shè)法讓這個(gè)巨人失明并逃脫了。人工智能不會(huì)吃掉我們。
Ilya Sutskever 是 OpenAI 的聯(lián)合創(chuàng)始人和首席科學(xué)家,是大型語言模型 GPT-4 和 ChatGPT 的核心成員之一,可以毫不夸張地說,他正在改變世界。
這不是 Ilya 第一次改變世界了。他是卷積神經(jīng)網(wǎng)絡(luò) AlexNet 的主要推動(dòng)力量,其驚人的性能在 2012 年震驚了科學(xué)界,引發(fā)了深度學(xué)習(xí)革命。
以下是對(duì)話的編輯記錄。
CRAIG:Ilya,我知道你出生在俄羅斯。你是因?yàn)閷?duì)計(jì)算機(jī)科學(xué)感興趣還是其他原因,比如神經(jīng)科學(xué),才進(jìn)入這個(gè)領(lǐng)域的呢?
ILYA:確實(shí),我出生在俄羅斯。我在以色列長(zhǎng)大,然后少年時(shí),我的家人移民到了加拿大。我父母說我從小就對(duì)人工智能感興趣。我也對(duì)意識(shí)非常感興趣,它讓我感到非常不安,我很好奇什么可以幫助我更好地理解它。
我17歲時(shí)就開始和 Geoff Hinton(深度學(xué)習(xí)的創(chuàng)始人之一,當(dāng)時(shí)是多倫多大學(xué)的教授)一起工作了。因?yàn)槲覀儼岬搅思幽么?,我立刻就能加入多倫多大學(xué)。我真的很想做機(jī)器學(xué)習(xí),因?yàn)樗侨斯ぶ悄茏钪匾⒁埠茈y企及的部分。
我們現(xiàn)在認(rèn)為計(jì)算機(jī)可以學(xué)習(xí),但是在 2003 年,我們認(rèn)為計(jì)算機(jī)無法學(xué)習(xí)。當(dāng)時(shí)人工智能的最大成就是 Deep Blue( IBM 的)象棋引擎(在1997 年擊敗世界冠軍加里·卡斯帕羅夫)。?
這只是用一種簡(jiǎn)單的方法來確定一個(gè)位置是否比另一個(gè)位置更好,不可能適用于現(xiàn)實(shí)世界,因?yàn)闆]有學(xué)習(xí)。學(xué)習(xí)是一個(gè)巨大的謎團(tuán),很感興趣。我運(yùn)氣很好,Geoff Hinton 正好是大學(xué)的教授,一拍即合,我加入了他們的團(tuán)隊(duì)。
那么智能是如何工作的呢?我們?nèi)绾巫層?jì)算機(jī)變得更加智能?我的意圖很明確,就是為人工智能做出非常小但真正的貢獻(xiàn)。能否理解智能如何工作并為之做出貢獻(xiàn)?這就是我的最初動(dòng)機(jī)。這幾乎是 20 年前的事了。
簡(jiǎn)而言之,我意識(shí)到,如果你在一個(gè)足夠大的數(shù)據(jù)集上訓(xùn)練一個(gè)大型深度神經(jīng)網(wǎng)絡(luò)來完成某些復(fù)雜任務(wù),比如視覺任務(wù),你必然會(huì)成功。這樣做的邏輯是不可約的( irreducible );我們知道人類的大腦可以解決這些任務(wù),并且可以快速地解決它們。而人類的大腦只是一個(gè)由慢神經(jīng)元構(gòu)成的神經(jīng)網(wǎng)絡(luò)。
所以,我們只需要拿一個(gè)較小但相關(guān)的神經(jīng)網(wǎng)絡(luò),用數(shù)據(jù)來訓(xùn)練它。計(jì)算機(jī)內(nèi)部最好的神經(jīng)網(wǎng)絡(luò)將與我們大腦中執(zhí)行此任務(wù)的神經(jīng)網(wǎng)絡(luò)相關(guān)。
CRAIG:2017年?Attention Is All You Need?論文問世,介紹了自我注意和 transformers。GPT項(xiàng)目是在什么時(shí)候開始的?你對(duì) transformers有什么直覺嗎?
ILYA:從 OpenAI 成立之初起,我們就在探索一個(gè)想法,即預(yù)測(cè)下一個(gè)東西就是你所需的一切。我們用當(dāng)時(shí)更受限制的神經(jīng)網(wǎng)絡(luò)探索這個(gè)想法,如果你有一個(gè)神經(jīng)網(wǎng)絡(luò)可以預(yù)測(cè)下一個(gè)單詞,它將解決無監(jiān)督學(xué)習(xí)。所以,在 GPT之前,無監(jiān)督學(xué)習(xí)被認(rèn)為是機(jī)器學(xué)習(xí)的圣杯。
現(xiàn)在它已經(jīng)被完全解決,甚至沒有人談?wù)撍?,但它曾是一個(gè)神秘的問題,因此我們?cè)谔剿鬟@個(gè)想法。我非常興奮,因?yàn)轭A(yù)測(cè)下一個(gè)單詞足夠好,將為你提供無監(jiān)督學(xué)習(xí)。
但我們的神經(jīng)網(wǎng)絡(luò)無法勝任此任務(wù)。我們使用的是遞歸神經(jīng)網(wǎng)絡(luò)。當(dāng) transformer 出現(xiàn)時(shí),就在論文發(fā)表的第二天,我們立即意識(shí)到,transformers 解決了遞歸神經(jīng)網(wǎng)絡(luò)的局限性,解決了學(xué)習(xí)長(zhǎng)程依賴關(guān)系( long-term dependencies)的問題。
這是一個(gè)技術(shù)問題。我們立即轉(zhuǎn)向 transformers。因此,新生的 GPT 項(xiàng)目開始使用transformer。它開始工作得更好,當(dāng)你不斷讓它變得更大后。
這就導(dǎo)致最終的 GPT-3,基本上是我們今天所處的位置。
CRAIG:目前既有大型語言模型的局限性在于它們的知識(shí)被包含在訓(xùn)練它們的語言中。而大部分人類知識(shí),我認(rèn)為每個(gè)人都會(huì)同意,是非語言的。
它們的目標(biāo)是滿足提示的統(tǒng)計(jì)意義上的一致性,對(duì)語言所關(guān)聯(lián)的現(xiàn)實(shí)并沒有潛在的理解。我問 ChatGPT 關(guān)于我自己的情況。它知道我是一名記者,在不同的報(bào)紙工作過,但它不停地談?wù)撐覐奈传@得過的獎(jiǎng)項(xiàng),讀起來很漂亮,但很少與潛在的現(xiàn)實(shí)聯(lián)系起來。在你未來的研究中有沒有什么方法來解決這個(gè)問題?
ILYA:我們有多大把握認(rèn)為今天看到的這些局限性兩年后仍將存在?我并不那么有信心。我還想對(duì)一個(gè)問題的某一部分發(fā)表評(píng)論,即這些模型只是學(xué)習(xí)統(tǒng)計(jì)規(guī)律,因此它們不真正知道世界的本質(zhì)是什么。
我的觀點(diǎn)與此不同。換句話說,我認(rèn)為學(xué)習(xí)統(tǒng)計(jì)規(guī)律比人們看到的更重要。
預(yù)測(cè)也是一個(gè)統(tǒng)計(jì)現(xiàn)象。但是要進(jìn)行預(yù)測(cè),需要理解生成數(shù)據(jù)的基本過程,需要了解更多關(guān)于產(chǎn)生數(shù)據(jù)的世界的知識(shí)。
我認(rèn)為,隨著我們的生成模型變得異常優(yōu)秀,它們對(duì)世界及其許多微妙之處的理解將達(dá)到令人震驚的程度。它通過文本的鏡頭看到世界,試圖通過投射在互聯(lián)網(wǎng)上的文本影子了解更多關(guān)于世界的信息。
但是,這些文本已經(jīng)表達(dá)了世界。舉個(gè)最近的例子,很有意思。我們都聽說過Sydney(前不久,微軟利用 OpenAI 的新技術(shù)推出了新版必應(yīng)搜索引擎,其中內(nèi)置了初始代號(hào)為 Sydney 的聊天機(jī)器人?!g者注)是它(必應(yīng))的化身。當(dāng)用戶告訴 Sydney 谷歌是比必應(yīng)更好的搜索引擎時(shí),Sydney 變得好斗和攻擊性。
如何思考這種現(xiàn)象?這意味著什么?您可以說,它只是預(yù)測(cè)人們會(huì)做什么,人們確實(shí)會(huì)這樣做,這是真的。但也許我們現(xiàn)在正在達(dá)到一個(gè)臨界點(diǎn),開始利用心理學(xué)語言來理解這些神經(jīng)網(wǎng)絡(luò)的行為。
現(xiàn)在讓我們來談?wù)勥@些神經(jīng)網(wǎng)絡(luò)的局限性。事實(shí)上,這些神經(jīng)網(wǎng)絡(luò)有產(chǎn)生幻覺的傾向。這是因?yàn)檎Z言模型非常擅長(zhǎng)學(xué)習(xí)世界知識(shí),但在生成良好輸出方面則略顯不足。這其中存在一些技術(shù)原因。語言模型在學(xué)習(xí)各種思想、概念、人物、過程等世界知識(shí)方面表現(xiàn)非常出色,但其輸出卻沒有達(dá)到預(yù)期的水平,或者說還有進(jìn)一步提升的空間。
因此,對(duì)于像 ChatGPT 這樣的語言模型,我們引入了一種額外的強(qiáng)化學(xué)習(xí)訓(xùn)練過程,稱為「人類反饋強(qiáng)化學(xué)習(xí)」( Reinforcement Learning from Human Feedback,RLHF )。
在預(yù)訓(xùn)練過程中,我們希望它能夠?qū)W習(xí)關(guān)于世界的一切。而在來自人類反饋的強(qiáng)化學(xué)習(xí)中,我們更關(guān)心輸出結(jié)果。如果輸出結(jié)果不恰當(dāng),就不要再這樣做了。這樣它就能夠快速學(xué)會(huì)生成良好的輸出。但這種良好的輸出水平并不在語言模型預(yù)訓(xùn)練過程中出現(xiàn)。
至于幻覺,它有時(shí)會(huì)胡言亂語,這也大大限制了它們的用途。但我非常希望通過簡(jiǎn)單改進(jìn)后續(xù)的人類反饋強(qiáng)化學(xué)習(xí),就能教它不再產(chǎn)生幻覺。你可能會(huì)問,它真的能學(xué)會(huì)嗎?我的答案是,讓我們?cè)囋嚳窗伞?/p>
我們現(xiàn)在的做法是雇人教會(huì) ChatGPT 如何表現(xiàn)。你只需要與它互動(dòng),它就能從你的反應(yīng)中推斷出你想要的東西,比如,你對(duì)輸出結(jié)果不滿意。因此,它應(yīng)該在下一次做些不同的事情。我認(rèn)為這種方法很有可能(a quite a high chance)完全解決幻覺的問題。
CRAIG:Yann LeCun( Facebook 首席人工智能科學(xué)家、深度學(xué)習(xí)先驅(qū)之一)認(rèn)為,大型語言模型缺少可參考的、非語言的基礎(chǔ)世界模型。我想聽聽你對(duì)此的看法,以及你是否已經(jīng)進(jìn)行了相關(guān)探索。
ILYA: 我審查過 Yann LeCun 的提案,用不同語言表達(dá)了很多想法,可能與當(dāng)前的范式有一些微小的差異,但在我看來,它們不是很顯著。
他的第一個(gè)主張是一個(gè)系統(tǒng)需要有多模態(tài)理解,這樣它就不只是從文本中了解世界。我對(duì)此的評(píng)論是,多模式理解確實(shí)是可取的,因?yàn)槟銓?duì)世界了解得更多,你對(duì)人了解得更多,你對(duì)他們的狀況了解得更多,系統(tǒng)將能夠更好地理解它應(yīng)該解決的任務(wù)是什么,以及他們想要什么。
我們?cè)谶@方面做了很多工作,最引人注目的是我們已經(jīng)完成的兩個(gè)主要神經(jīng)網(wǎng)絡(luò)。一個(gè)叫 Clip,一個(gè)叫 Dall-E。它們都朝著這個(gè)多模態(tài)方向移動(dòng)。但我認(rèn)為這種情況不是非此即彼的:如果你沒有視覺,不能從視覺上或視頻上理解世界,那么事情就不會(huì)成功。
我想要證明這一點(diǎn)。有些東西從圖像和圖表中更容易學(xué)習(xí),但我認(rèn)為仍然可以只從文本中學(xué)習(xí),只是速度更慢。想想顏色的概念。
當(dāng)然,一個(gè)人不能只從文本中學(xué)習(xí)顏色的概念,但是當(dāng)你看「嵌入」時(shí)——我需要繞一個(gè)小彎子來解釋「嵌入」的概念。每個(gè)神經(jīng)網(wǎng)絡(luò)都通過「嵌入」表示單詞、句子、概念,這些「嵌入」是高維向量。
我們可以看一下這些高維向量,看看它們彼此之間有什么相似之處;神經(jīng)網(wǎng)絡(luò)如何看待這個(gè)概念或那個(gè)概念?所以,機(jī)器可以通過嵌入向量,知道紫色和藍(lán)色比紅色更相似,紅色和橙色比紫色更相似。它只通過文本就知道這些。這是怎么做到的呢?
如果你看得見,就會(huì)立刻看到顏色差異。如果只有文字,你就需要更長(zhǎng)時(shí)間,也許你知道如何說話,也理解語法,單詞和語法,但直到很久以后才真正開始理解顏色。所以,這就是我關(guān)于多模態(tài)性必要性的觀點(diǎn):它不是必要的,但肯定是有用的。這是一個(gè)值得追求的方向。我只是認(rèn)為它不是非此即彼的。
這也是為什么(LeCun 的)論文中聲稱,最大挑戰(zhàn)之一是預(yù)測(cè)具有不確定性的高維向量。
但我發(fā)現(xiàn)令人驚訝的是,在這篇論文中未被承認(rèn)的是,當(dāng)前的自回歸 transformers ?( autoregressive transformers )已經(jīng)具有這種性質(zhì)。
舉兩個(gè)例子。一個(gè)是給定書中的一頁,預(yù)測(cè)書中的下一頁。接下來可能會(huì)有很多頁。這是一個(gè)非常復(fù)雜的高維空間,他們處理得很好。這同樣適用于圖像。這些自回歸 transformers 在圖像上工作得非常完美。
例如,和 OpenAI 一樣,我們?cè)?iGPT 上做了一些工作。我們只是拿了一個(gè) transformers 把它應(yīng)用到像素上,表現(xiàn)得非常好,能以非常復(fù)雜和微妙的方式生成圖像。Dall-E 1 也是一樣的。
所以,這篇論文強(qiáng)調(diào)現(xiàn)有方法無法預(yù)測(cè)高維分布的部分,我的觀點(diǎn)是(它們)肯定是可以的。
CRAIG:按你說的,有一群人類訓(xùn)練師正在使用 ChatGPT 或一個(gè)大型語言模型來指導(dǎo)它有效地強(qiáng)化學(xué)習(xí),直覺上,這不像是一種教會(huì)模型掌握語言潛在現(xiàn)實(shí)的有效方法。
ILYA:我不同意這個(gè)問題的措辭。我認(rèn)為,我們預(yù)先訓(xùn)練過的模型已經(jīng)知道了它們需要知道的關(guān)于潛在現(xiàn)實(shí)的一切。他們已經(jīng)有了這些語言知識(shí),也有大量關(guān)于世界上存在的產(chǎn)生這種語言的過程的知識(shí)。
大型生成模型從他們的數(shù)據(jù)中學(xué)到的東西——在這種情況下,大型語言模型——是產(chǎn)生這些數(shù)據(jù)的真實(shí)世界過程的壓縮表示,這不僅意味著人和他們的想法,他們的感受,還意味著人們所處的條件以及他們之間存在的互動(dòng)。一個(gè)人可能處于不同的情境,而所有這些情境信息都是壓縮過程的一部分,由神經(jīng)網(wǎng)絡(luò)表示,以生成文本。語言模型越好,生成模型越好,保真度越高,它就能更好地捕捉這個(gè)過程。
現(xiàn)在,正如你所描述的那樣,這些訓(xùn)練師的確也在使用人工智能輔助。這些人不是獨(dú)自行動(dòng)的,他們正在使用我們的工具,而工具則承擔(dān)了大部分工作。但是,你確實(shí)需要有人來監(jiān)督和審核他們的行為,因?yàn)槟阆M罱K實(shí)現(xiàn)非常高的可靠性。
確實(shí)有很多動(dòng)機(jī)使其盡可能高效和精確,這樣得到的語言模型將盡可能表現(xiàn)良好。
ILYA:是的,這些人類訓(xùn)練師正在教授模型所需的行為。他們使用人工智能系統(tǒng)的方式不斷提高,因此他們自己的效率也在不斷提高。
這跟人類教育沒什么不同。我們需要額外培訓(xùn),確保模型知道幻覺不可行。人類或者其他方法能夠教會(huì)它。
某些因素應(yīng)該會(huì)奏效。我們很快就會(huì)找到答案。
CRAIG: 你現(xiàn)在的研究方向是什么?
ILYA: 我不能詳細(xì)談?wù)撐艺趶氖碌木唧w研究,但是我可以簡(jiǎn)單地提到一些廣義的研究方向。我非常有興趣使這些模型更加可靠、可控,讓它們從教材數(shù)據(jù)中更快地學(xué)習(xí),減少指導(dǎo)。讓它們不會(huì)出現(xiàn)幻覺。
CRAIG: 如果你有足夠的數(shù)據(jù)和足夠大的模型,能否為一些看似無法解決的沖突找出讓每個(gè)人都滿意的最佳解決方案?你是否思考過這將如何幫助人類管理社會(huì)?
ILYA:這是一個(gè)很大的問題,因?yàn)檫@是一個(gè)更加面向未來的問題。我認(rèn)為,我們的模型在許多方面將比現(xiàn)在強(qiáng)大得多。
政府將如何使用這項(xiàng)技術(shù)作為各種建議的來源,目前還無法預(yù)測(cè)。關(guān)于民主的問題,我認(rèn)為未來可能發(fā)生的一件事是,因?yàn)檫@些神經(jīng)網(wǎng)絡(luò)將無處不在,對(duì)社會(huì)具有巨大影響力,因此可能會(huì)探索出更讓人滿意的民主方式,比如每個(gè)公民向它們輸入一些信息,包括他們希望事態(tài)如何發(fā)展等。這可能是一種非常高度的民主方式,從每個(gè)公民那里獲得更多信息,這些信息被聚合起來,然后搞清楚我們到底希望系統(tǒng)如何運(yùn)作。現(xiàn)在它引發(fā)了很多問題,但這是未來可能發(fā)生的一件事。
(聚合龐大信息意味著模型可能分析某種情境下的所有變量,那么)分析所有變量意味著什么呢?最終你需要找出一些真正重要的變量,進(jìn)行深入研究。這就像為了深入了解,我可以讀一百本書,也可以仔細(xì)讀一本書。同時(shí),我認(rèn)為從根本上說,理解所有事情是不可能的。讓我們舉一些簡(jiǎn)單的例子。
任何時(shí)候,社會(huì)上出現(xiàn)任何復(fù)雜情況,即使是在一個(gè)公司,一個(gè)中等規(guī)模公司,它已經(jīng)超出了任何一個(gè)人的能力范圍。如果以正確方式構(gòu)建人工智能系統(tǒng),它就在各種情境下極大地幫助到我們。
作者 |?Craig S. Smith
編譯 |ChatGPT-4 、吳昕
關(guān)鍵詞: