每日焦點(diǎn)!投資了50多家AI初創(chuàng)公司,這位專業(yè)投資者人呼吁:必須放緩?fù)ㄓ萌斯ぶ悄蹵GI競賽!
創(chuàng)造超級人工智能的誘惑是巨大的,這往往會使得人們忘記了其存在的危險。
4月14日,人工智能賽道投資人Ian Hogarth在其專欄中發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,并警告當(dāng)前人工智能公司的研究可能接近“一些潛在的風(fēng)險”:
(資料圖)
在沒有民主監(jiān)督的情況下,由一小群私人公司做出可能影響地球上每一個生命的重大決定,這讓人感到非常錯誤。
那些競相建造第一個真正AGI的人有沒有計劃放慢速度,讓世界其他地方對他們正在做的事情有發(fā)言權(quán)?
Horgath表示,之所以將AGI稱為“上帝般的AI”,是因為在預(yù)期的發(fā)展路徑下,它將成為一臺可以自主學(xué)習(xí)和發(fā)展的超級智能計算機(jī),并且可以在不需要監(jiān)督的情況下理解周圍的環(huán)境,可以改變周圍的世界:
像上帝一樣的人工智能可能是一種我們無法控制或理解的力量,它可能會導(dǎo)致人類的淘汰或毀滅。
他說,創(chuàng)建AGI是所有領(lǐng)先的人工智能公司的明確目標(biāo),但這些公司朝著這個目標(biāo)前進(jìn)的速度遠(yuǎn)遠(yuǎn)快于所有人的預(yù)期:
最近,幾家公司在創(chuàng)造上帝般的人工智能方面的競爭迅速加速。他們還不知道如何安全地追求他們的目標(biāo),也沒有監(jiān)管。
他們奔向終點(diǎn)線,卻不知道另一邊是什么。
Ian Hogarth是人工智能賽道的知名天使投資人,自2014年以來,他在歐洲和美國投資了50多家人工智能初創(chuàng)企業(yè),包括全球融資最高的生成式人工智能初創(chuàng)企業(yè)之一Anthropic,以及領(lǐng)先的歐洲人工智能防御公司Helsing。
Horgarth坦言,盡管他在過去投資了眾多人工智能初創(chuàng)企業(yè),但他始終存在著擔(dān)憂,而這種擔(dān)憂在今年OpenAI的成功后固化為了一種恐懼。
他也曾向研究人員發(fā)出預(yù)警,但與該領(lǐng)域的許多人一樣,相比自己應(yīng)有的責(zé)任,這些研究人員“也被迅速的發(fā)展所吸引”。
潛在的危險
Horgath指出,當(dāng)前AGI的游戲和聊天功能使公眾忽略了人工智能這項技術(shù)更嚴(yán)重的潛在危險。
早在2011年,DeepMind的首席科學(xué)家Shane Legg就將人工智能構(gòu)成的生存威脅描述為“本世紀(jì)的頭號風(fēng)險”:
如果一臺超級智能機(jī)器決定擺脫我們,我認(rèn)為它會非常有效地做到這一點(diǎn)。
他還提到2021年,加州大學(xué)伯克利分校計算機(jī)科學(xué)教授Stuart Russell在演講中舉了一個聯(lián)合國要求AGI幫助降低海洋酸化的例子:
聯(lián)合國要求副產(chǎn)品是無毒的,不會傷害魚類。作為回應(yīng),人工智能系統(tǒng)提出了一種自我增殖的催化劑,實現(xiàn)了所有既定的目標(biāo)。
但隨之而來的化學(xué)反應(yīng)消耗了大氣中四分之一的氧氣。我們都會死得緩慢而痛苦。
如果我們把錯誤的目標(biāo)交給一臺超級智能機(jī)器,我們就會制造一場我們注定會輸?shù)臎_突。
人工智能造成的更切實的傷害的例子已經(jīng)出現(xiàn)了。最近,一名比利時男子在與聊天機(jī)器人Chai交談后自殺身亡。
而另一家提供聊天機(jī)器人服務(wù)的公司Replika對其程序進(jìn)行更改時,一些用戶感覺像“失去了最好的朋友”,經(jīng)歷了痛苦和失落感。
此外,人工智能現(xiàn)在可以復(fù)制一個人的聲音甚至臉,這使得其詐騙和提供虛假信息的可能性很大。
為什么要創(chuàng)造?
如果存在潛在的災(zāi)難性風(fēng)險,這些公司為什么要競相創(chuàng)造“上帝般的人工智能”?
Horgath表示,根據(jù)他與許多行業(yè)領(lǐng)袖的談話以及他們的公開聲明,似乎有三個主要動機(jī):
他們真誠地相信,成功將對人類產(chǎn)生巨大的積極影響。
他們說服自己,如果他們的組織控制著像上帝一樣的人工智能,結(jié)果將對所有人都更好。
最后,是為了子孫后代。
成為第一個創(chuàng)造非凡新技術(shù)的人的誘惑是巨大的。在成就與潛在危害上,人工智能的開發(fā)在某種程度上可以類比原子彈。
1981年,弗里曼·戴森在紀(jì)錄片中描述了他參與核彈研發(fā)時的心理:
對于一個科學(xué)家,核武器的閃光是“不可抗拒(irresistible)”的。
它給人們一種無限力量的錯覺(an illusion of illimitable power)。
而在2019年,OpenAI創(chuàng)始人Sam Altman在接受采訪時,也引用了原子彈之父奧本海默的話:
技術(shù)的出現(xiàn)是因為它是可能的(Technology happens because it is possible)。
治理
Horgath說,他理解人們?yōu)槭裁丛敢庀嘈拧吧系郯愕摹比斯ぶ悄埽@意味著它或許能夠解決人類目前面臨的最大挑戰(zhàn):癌癥、氣候變化、貧困等。但即便如此,在沒有適當(dāng)治理的情況下繼續(xù)下去的風(fēng)險也太高了。
“不幸的是”,他說,“我認(rèn)為比賽還會繼續(xù)。這可能需要一個重大的濫用事件——一場災(zāi)難——來喚醒公眾和政府。”
他認(rèn)為,與人工智能監(jiān)管相關(guān)的一個有意義的類比是工程生物學(xué):
首先考慮生物病毒的“功能獲得”研究。這一活動受到嚴(yán)格的國際法規(guī)的約束,在實驗室生物安全事件發(fā)生后,有時因暫停而停止。這是最嚴(yán)格的監(jiān)督。
相比之下,新藥的開發(fā)是由FDA這樣的政府機(jī)構(gòu)監(jiān)管的,新的治療方法要經(jīng)過一系列的臨床試驗。我們在監(jiān)管方式上存在明顯的不連續(xù),這取決于系統(tǒng)性風(fēng)險的水平。
在我看來,我們可以用與功能獲得研究相同的方式接近“上帝般的”AGI系統(tǒng),而狹隘有用的人工智能系統(tǒng)可以像新藥一樣受到監(jiān)管。
他表示,支持各國政府實施重大監(jiān)管,并制定切實可行的計劃,將那些專注于一致性和安全性的人工智能初創(chuàng)企業(yè)轉(zhuǎn)變?yōu)轭愃茪W洲粒子物理研究所的組織。
最后,Horgath仍然強(qiáng)調(diào),人類并非無力延緩這場競賽:
風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。如果你在政府工作,那就舉行聽證會,在宣誓的情況下詢問人工智能的領(lǐng)導(dǎo)者,他們開發(fā)AGI的時間表。要求他們在測試當(dāng)前模型時發(fā)現(xiàn)的安全問題的完整記錄。要求他們提供證據(jù),證明他們理解這些系統(tǒng)是如何工作的,以及他們對實現(xiàn)一致性的信心。邀請獨(dú)立專家參加聽證會,對這些實驗室進(jìn)行交叉檢查。
如果你在一個大型實驗室工作,試圖構(gòu)建“上帝般的”人工智能,就所有這些問題詢問你的領(lǐng)導(dǎo)。如果你在領(lǐng)先的實驗室工作,這一點(diǎn)尤其重要。
到目前為止,人類仍然是學(xué)習(xí)過程的必要組成部分,這是人工智能進(jìn)步的特征。
總有一天,會有人想出辦法把我們從循環(huán)中剔除,創(chuàng)造出一個像上帝一樣能夠無限自我完善的人工智能。到那時,可能就太晚了。
關(guān)鍵詞: