作者丨程瀟熠 編輯丨康曉
出品丨深網(wǎng)·騰訊新聞小滿工作室
歡迎下載騰訊新聞APP,閱讀更多優(yōu)質(zhì)資訊
曾經(jīng)OpenAI最大的支持者,OpenAI聯(lián)合創(chuàng)始人、特斯拉CEO埃隆·馬斯克成為了OpenAI最大的反對者。
本周,馬斯克在社交平臺密集發(fā)表了自己對于OpenAI的不滿、對AI倫理的看法以及對微軟創(chuàng)始人比爾·蓋茨的嘲諷。
“我早期與蓋茨會面的時候,就發(fā)現(xiàn)他對AI的理解非常有限,現(xiàn)在依舊如此?!?/p>
3月29日,生命未來研究所(Future of Life Institute)發(fā)布了一封公開信,千名科技圈大佬聯(lián)名呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng),暫停時間至少為6個月。馬斯克與人工智能領(lǐng)域?qū)<?、圖靈獎獲得者約書亞·本吉奧(Yoshua Benigno ), 楊立昆(Yann LeCun)的名字赫然在列。
這封聯(lián)名公開信沒有得到所有簽名者的最終確認(rèn)。楊立昆在公開信發(fā)布后迅速發(fā)twitter辟謠:沒有,我沒簽名,我不同意這封信的假設(shè)。原因是“暫停研發(fā)等于秘密研發(fā),這與簽名者的訴求相悖?!毖韵轮?,暫停只能使研發(fā)從明面上轉(zhuǎn)為暗地里,不能解決大家擔(dān)心的根本性問題。
不過,他并沒有否認(rèn)聯(lián)名信中“AI可能會失控,給社會和人類帶來巨大風(fēng)險”的擔(dān)憂。
網(wǎng)上沖浪達(dá)人馬斯克在這封信發(fā)布后保持了沉默,不過從近期他的發(fā)言傾向來看,馬斯克應(yīng)為聯(lián)名信觀點的支持者。他在3月27日發(fā)布twitter,明確贊同“人工智能教父”杰弗里·辛頓(Geoffrey Hinton)以及紐約大學(xué)教授、AI專家蓋瑞·馬庫斯(Gary Marcus)的觀點:
“我們已有的AI技術(shù)可能會被渴望權(quán)力的政府和企業(yè)壟斷,例如從非營利組織轉(zhuǎn)為營利組織的OpenAI,你不會希望讓一家大型營利性公司決定什么是真的、什么是對的?!?/span>
另外,未來AI若達(dá)到人類智商水平并掌握了財政、武器及關(guān)鍵基礎(chǔ)設(shè)施,將有可能摧毀文明甚至毀滅人類。
杰弗里·辛頓認(rèn)為,現(xiàn)在人們還有一些時間來避免災(zāi)難發(fā)生,因為目前公開可用的模型還“相當(dāng)愚蠢”。杰弗里·辛頓稱Chat GPT為“白癡學(xué)者”。
馬斯克與OpenAI決裂最根本的原因便是OpenAI從非營利組織變?yōu)闋I利性組織,這場爭端可謂是AI發(fā)展的現(xiàn)實與困境的最佳寫照。
來源:Twitter用戶Shibetoshi Nakamoto
理想的破滅
OpenAI的成立極具理想主義色彩。
2015年,一群不差錢的硅谷新貴們集資10億美元成立了一家為了制衡谷歌,確保通用人工智能(AGI,全稱Artificial general intelligence,即一種能夠像人類一樣在各個領(lǐng)域執(zhí)行任務(wù)的智能系統(tǒng))對人類有益的開源的、非營利性組織OpenAI(名字中的Open代表開源)。
創(chuàng)始人包括馬斯克、時任Y Combinator合伙人的山姆·阿爾特曼(Sam Altman)(現(xiàn)OpenAI CEO)等人。早期馬斯克與山姆同為OpenAI聯(lián)席董事長。
馬斯克是世界上最積極推動AI發(fā)展的企業(yè)家之一,與此同時他也無時不刻的表達(dá)著自己對于AI的恐懼。
早在2014年,馬斯克就曾在推特上稱,人工智能可能比核武器更危險,我們要對它格外小心。
在與《硅谷鋼鐵俠》一書作者阿什利·萬斯交談時,馬斯克也突然講話題跳至令他恐懼到睡不著覺的事上:他的好友、谷歌創(chuàng)始人拉里·佩奇(Larry Page)正在建造的人工智能機(jī)器人大軍有可能摧毀全人類?!芭迤嬲J(rèn)為機(jī)器會永遠(yuǎn)服務(wù)于人類,我不像他那么樂觀,他可能會不小心制造出邪惡的東西來?!?/p>
對于馬斯克而言,對抗恐懼的最佳方法可能是搶在所有人之前研發(fā)AI,并對AI實施足以讓自己放心的監(jiān)管。
于是在2018年,當(dāng)OpenAI因資金短缺導(dǎo)致研發(fā)進(jìn)度遠(yuǎn)不及谷歌時,馬斯克向聯(lián)席董事長山姆提出了由他親自接管和運營OpenAI的建議,但這一建議遭到了OpenAI創(chuàng)始人們的反對。不久后,馬斯克離開OpenAI,并取消了原計劃向OpenAI捐贈的一大筆投資。
馬斯克離開的同時,山姆將自己的工作重心由Y Combinator轉(zhuǎn)移至OpenAI。據(jù)稅務(wù)文件,2018年山姆在OpenAI的職位由聯(lián)席董事長變?yōu)榭偛?,相?dāng)于完全接手了OpenAI的管理權(quán)。
馬斯克停止捐款使得OpenAI本就不富裕的現(xiàn)金流雪上加霜,無力支付訓(xùn)練模型所需的高昂費用。
2019年,OpenAI徹底與最初的目標(biāo)背道而馳,創(chuàng)立營利性主體OpenAI LP,以籌集研發(fā)所需的費用。據(jù)The Information報道,山姆稱自己不會拿新OpenAI營利性實體中股權(quán),即他本人不會因為OpenAI的盈利而獲益。
不到6個月后,微軟向OpenAI注資10億美元,雙方一起建了一臺超級計算機(jī)訓(xùn)練大模型——以谷歌Transformer模型為基礎(chǔ)的GPT模型,并在迭代到GPT-3.5時創(chuàng)造了引爆世界的ChatGPT。
今年年初,OpenAI又接受了微軟“數(shù)年內(nèi)投資數(shù)十億美元”的追加投資,雖然OpenAI設(shè)有“投資額100倍以內(nèi)”的盈利上限,但這筆交易無疑將OpenAI與微軟捆綁的更為緊密。
OpenAI的發(fā)展違背了山姆的初衷。
山姆此前在采訪里曾強調(diào),未來希望能夠打破資本主義的范式,避免少數(shù)人壟斷公司利益?!叭绻鸄GI真的可以完全實現(xiàn),我可以想象它會以各種方式打破資本主義。我們試圖設(shè)計的是一種不同于其他任何公司結(jié)構(gòu)的結(jié)構(gòu)?!?/p>
山姆表示,人工智能領(lǐng)域不能被任何一家公司單獨所有。
如今的OpenAI確實有了制衡谷歌的能力,但在馬斯克眼中Open AI又成為了需要被制衡的存在。
“現(xiàn)在它已經(jīng)成為了一個閉源、以最大利潤為目標(biāo)、受微軟控制的公司?!瘪R斯克在ChatGPT發(fā)布一個月后斷掉了OpenAI對Twitter的數(shù)據(jù)訪問權(quán)限。
馬斯克是開源支持者。2014年他開放了特斯拉所有專利,如今電動汽車常用的隱藏式門把手便是特斯拉的創(chuàng)新。3月31日,馬斯克再次兌現(xiàn)開源承諾,Twitter部分代碼開源,大部分為推薦算法。馬斯克開源Twitter為的是讓它成為“互聯(lián)網(wǎng)上最透明的系統(tǒng)”。
近期馬斯克在推特上不斷表達(dá)著自己的不滿,“我仍然很困惑,一個我捐贈了1億美元的非營利組織是如何變成一個市值300億美元的營利性組織的?!彼踔猎儐柫薈hatGPT“如何看待用非營利組織資源衍生創(chuàng)辦營利性公司?!?/p>
ChatGPT的回答令他非常滿意:打著非營利組織的幌子開辦營利性企業(yè),很不道德也不合法。任何濫用非營利組織特權(quán)的企圖只會喪失公眾信任,甚至導(dǎo)致法律后果。
ChatGPT給馬斯克的回復(fù)
據(jù)The Information報道,馬斯克近期一直在與人工智能研發(fā)人員接觸,商議成立一個新的研究實驗室,以制衡OpenAI和ChatGPT。
風(fēng)險來的或比想象中更快
人們早就知道AI學(xué)習(xí)能力極強,能力呈指數(shù)級發(fā)展,但真實的AI發(fā)展速度仍然快的超乎預(yù)料。
上文提到的“人工智能之父”杰弗里·辛頓在近期的CBS采訪中說,“以前我認(rèn)為我們還需要20到50年才能擁有通用人工智能(AGI),現(xiàn)在我認(rèn)為這個時間要縮短至20年內(nèi)?!?/p>
處于一線的OpenAI治理團(tuán)隊工程師、前Deepmind AGI安全團(tuán)隊研究工程師Richard Ngo則給出了更為激進(jìn)的預(yù)測?!爱?dāng)我說'我預(yù)測’時,可信度超過50%,但不一定是遠(yuǎn)超50%。”
他預(yù)測到2025年底,也就是兩年多后,神經(jīng)網(wǎng)絡(luò)將具備多項特性:
1. 擁有人類水平的態(tài)勢感知,比如知道自己是神經(jīng)網(wǎng)絡(luò),知道自己是如何與世界互動的等等;
2. 在撰寫有效且復(fù)雜的計劃時超過大多數(shù)人;
3. 比大多數(shù)同行評審做的更好(更專業(yè)、更公平);
4. 可以自主設(shè)計、編碼和分發(fā)完整的應(yīng)用程序(但不是最復(fù)雜的應(yīng)用程序);
5. 在任何普通白領(lǐng)在10分鐘內(nèi)完成的任何計算機(jī)任務(wù)中表現(xiàn)的比大多數(shù)人都好;
6. 撰寫能獲獎的短篇小說,也可以出版5萬字書籍;
7. 生成20分鐘連貫的電影。
優(yōu)秀的人類會在四個方面做的更好,雖然速度會比神經(jīng)網(wǎng)絡(luò)慢很多。如寫小說;連續(xù)多日的穩(wěn)定執(zhí)行一個計劃;在科學(xué)研究領(lǐng)域取得突破性進(jìn)展,比如定理的創(chuàng)新;完成普通的體力勞動。
“長期來看,過渡到一個擁有超級智能的世界可能是人類歷史上最重要,最有希望,最可怕的項目”。山姆在上個月也曾通過推特發(fā)布警告:世界離“可怕”的人工智能并不遙遠(yuǎn),社會需要時間來適應(yīng),監(jiān)管規(guī)則也是必不可少的。
山姆也在擔(dān)心人工智能會帶來虛假的信息傳播,2024年的美國大選是如今OpenAI的重點關(guān)注事件?!按竽P图热豢梢跃帉懘a,那也可以用來發(fā)動網(wǎng)絡(luò)攻擊?!?/p>
微軟對于AGI的發(fā)展速度顯然比上述專家都更為樂觀。
近期微軟發(fā)表的154頁GPT-4相關(guān)論文,直接將GPT-4稱為“通用人工智能的早期版本”,因為在數(shù)學(xué)、語言、編程、法律、醫(yī)學(xué)、心理學(xué)等領(lǐng)域,GPT-4在完成任務(wù)時表現(xiàn)已接近人類水平。
這份論文引起了學(xué)術(shù)界的爭議。蓋瑞·馬庫斯直接說GPT-4離AGI還非常遙遠(yuǎn),甚至可以說無關(guān),但GPT-4仍然會給人類社會帶來風(fēng)險與潛在的危害。“如果OpenAI缺乏透明度,且拒絕開源,不如直接關(guān)停。”
但現(xiàn)實是,礙于AI長期研究所需的高昂費用及種種其他原因,“沒有一個頂級的研究室是完全透明的,基本沒有到位的安全保障措施。”
山姆理解大多數(shù)充斥擔(dān)憂情緒的人工智能領(lǐng)域?qū)<?,他此前也贊同人工智能不能被任何一家單獨的公司所有,“如何分享AGI的利潤?如何分享使用權(quán)?如何分配治理權(quán)限,這三個問題都需要重新思考?!?/p>
在山姆的設(shè)想中,AGI完全實現(xiàn)的那天,就是資本主義范式被打破的那天。但這個理想,已經(jīng)在OpenAI的現(xiàn)實發(fā)展中漸行漸遠(yuǎn)。
聯(lián)系客服