擁有了超級(jí)智能和超級(jí)智能所能創(chuàng)造的技術(shù),超人工智能可以解決人類世界的所有問題。氣候變暖?超人工智能可以用更優(yōu)的方式產(chǎn)生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然后它能創(chuàng)造方法移除多余的二氧化碳。癌癥?沒問題,有了超人工智能,制藥和健康行業(yè)將經(jīng)歷無法想象的革命。世界饑荒?超人工智能可以用納米技術(shù)直接搭建出肉來,而這些搭建出來的肉和真肉在分子結(jié)構(gòu)上會(huì)是完全相同的——換句話說,就是真肉。
納米技術(shù)能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然后用超級(jí)發(fā)達(dá)的交通把這些食物分配到世界各地。這對(duì)于動(dòng)物也是好消息,我們不需要屠殺動(dòng)物來獲得肉了。而超人工智能在拯救瀕危物種和利用DNA復(fù)活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復(fù)雜的宏觀問題——我們關(guān)于世界經(jīng)濟(jì)和貿(mào)易的爭論將不再必要,甚至我們對(duì)于哲學(xué)和道德的苦苦思考也會(huì)被輕易的解決。
但是,有一件事是如此的吸引人,光是想想就能改變對(duì)所有事物的看法了:
幾個(gè)月前,我提到我很羨慕那些可能達(dá)成了永生的文明。但是,現(xiàn)在,我已經(jīng)在認(rèn)真的考慮達(dá)成永生這個(gè)事情很可能在我們有生之年就能達(dá)成。研讀人工智能讓你重新審思對(duì)于所有事情的看法,包括死亡這一很確定的事情。
自然演化沒有理由讓我們活得比現(xiàn)在更長。對(duì)于演化來說,只要我們能夠活到能夠生育后代,并且養(yǎng)育后代到能夠自己保護(hù)自己的年紀(jì),那就夠了——對(duì)演化來說,活30多歲完全夠了,所以額外延長生命的基因突變并不被自然選擇所鐘愛。這其實(shí)是很無趣的事情。
而且因?yàn)樗腥硕紩?huì)死,所以我們總是說“死亡和繳稅”是不可避免的。我們看待衰老就像看待時(shí)間一樣——它們一直向前,而我們沒有辦法阻止它們。
但是這個(gè)假設(shè)是錯(cuò)的,費(fèi)曼曾經(jīng)寫道:
“在所有的生物科學(xué)中,沒有任何證據(jù)說明死亡是必需的。如果你說你想造永動(dòng)機(jī),那我們對(duì)于物理學(xué)的研究已經(jīng)讓我們有足夠的理論來說明這是不可能的。但是在生物領(lǐng)域我們還沒發(fā)現(xiàn)任何證據(jù)證明死亡是不可避免的。也就是說死亡不一定是不可避免的,生物學(xué)家早晚會(huì)發(fā)現(xiàn)造成我們死亡的原因是什么,而死亡這個(gè)糟糕的‘病’就會(huì)被治好,而人類的身體也將不再只是個(gè)暫時(shí)的容器?!?/blockquote>
事實(shí)上,衰老和時(shí)間不是綁死的。時(shí)間總是會(huì)繼續(xù)前進(jìn)的,而衰老卻不一定。仔細(xì)想想,衰老只是身體的組成物質(zhì)用舊了。汽車開久了也會(huì)舊,但是汽車一定會(huì)衰老嗎?如果你能夠擁有完美的修復(fù)技術(shù)、或者直接替換老舊的汽車部件,這輛車就能永遠(yuǎn)開下去。人體只是更加復(fù)雜而已,本質(zhì)上和汽車是一樣的。
Kurzweil提到由Wifi連接的納米機(jī)器人在血液中流動(dòng),可以執(zhí)行很多人類健康相關(guān)的任務(wù),包括日常維修,替換死去的細(xì)胞等等。如果這項(xiàng)技術(shù)能夠被完美掌握,這個(gè)流程(或者一個(gè)超人工智能發(fā)明的更好的流程)將能使人的身體永遠(yuǎn)健康,甚至越活越年輕。一個(gè)60歲的人和一個(gè)30歲的人身體上的區(qū)別只是物理上的,只要技術(shù)足夠發(fā)達(dá)我們是能改變這種區(qū)別的。
超人工智能可以建造一個(gè)“年輕機(jī)器”,當(dāng)一個(gè)60歲的人走進(jìn)去后,再出來時(shí)就擁有了年輕30歲的身體。就算是逐漸糊涂的大腦也可能年輕化,只要超人工智能足夠聰明,能夠發(fā)現(xiàn)不影響大腦數(shù)據(jù)的方法來改造大腦就好了。一個(gè)90歲的失憶癥患者可以走進(jìn)“年輕機(jī)器”,再出來時(shí)就擁有了年輕的大腦。這些聽起來很離譜,但是身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜。
Kurzweil的思維繼續(xù)跳躍了一下,他相信人造材料將越來越多的融入人體。最開始,人體器官將被先進(jìn)的機(jī)械器官所代替,而這些機(jī)械器官可以一直運(yùn)行下去。然后我們會(huì)開始重新設(shè)計(jì)身體,比如可以用自我驅(qū)動(dòng)的納米機(jī)器人代替血紅細(xì)胞,這樣連心臟都省了。Kurzweil甚至認(rèn)為我們會(huì)改造自己的大腦,使得我們的思考速度比現(xiàn)在快億萬倍,并且使得大腦能和云存儲(chǔ)的信息進(jìn)行交流。
我們能獲得的新體驗(yàn)是無窮的。人類的性愛,使得人們不但能生育,還能從中享樂。Kurtzweil認(rèn)為我們可以對(duì)食物做同樣的改造。納米機(jī)器人可以負(fù)責(zé)把身體需要的營養(yǎng)物質(zhì)傳送到細(xì)胞中,智能的將對(duì)身體不好的東西排出體外——就像一個(gè)食物避孕套一樣。納米技術(shù)理論家Robert A. Freitas已經(jīng)設(shè)計(jì)了一種紅細(xì)胞的替代品,能夠讓人快速?zèng)_刺15分鐘不需要呼吸——那么超人工智能能對(duì)我們的身體能力做的改造就更加難以想象。虛擬現(xiàn)實(shí)將擁有新的意義——體內(nèi)的納米機(jī)器人將能控制我們從感官獲得的信號(hào),然后用別的信號(hào)替代他們,讓我們進(jìn)入一個(gè)新的環(huán)境,在新環(huán)境里,我們能聽、看、聞、觸摸。。。
最終,Kurzweil認(rèn)為人類會(huì)完全變成人工的。有一天當(dāng)我們看到生物材料,然后覺得生物材料實(shí)在太原始了,早年的人體居然是用這樣的東西組成的,早期的人類居然會(huì)被微生物、意外、疾病殺死。這就是Kurzweil眼中人類最終戰(zhàn)勝自己的生理,并且變得不可摧毀和永生,這也是平衡木的另一個(gè)吸引態(tài)。他深深的想象我們會(huì)達(dá)到那里,而且就在不久的將來。
Kurzweil的想法很自然的受到了各方的批評(píng)。他對(duì)于2045年奇點(diǎn)時(shí)代的到來,以及之后的永生的可能性受到了各種嘲笑——“書呆子的狂歡”、“高智商人士的創(chuàng)始論”等等。也有人質(zhì)疑他過于樂觀的時(shí)間線,以及他對(duì)人腦和人體的理解程度,還有他將摩爾定于應(yīng)用到軟件上的做法。有很多人相信他,但有更多人反對(duì)他。
但是即使如此,那些反對(duì)他的專家并不是反對(duì)他所說的一切,反對(duì)他的人說的不是“這種事情不可能發(fā)生”,而是說“這些當(dāng)然可能發(fā)生,但是到達(dá)超人工智能是很難的。”連經(jīng)常提醒我們?nèi)斯ぶ悄艿臐撛谕{的Bostrom都這么說:
很難想象一個(gè)超級(jí)智能會(huì)有什么問題是解決不了,或是不能幫著我們解決的。疾病、貧困、環(huán)境毀滅、各種不必要的苦難,這些都是擁有納米科技的超級(jí)智能能夠解決的。而且,超級(jí)智能可以給我們無限的生命,這可以通過停止或者逆轉(zhuǎn)衰老來達(dá)成,也可以讓我們上傳自己的數(shù)據(jù)。一個(gè)超級(jí)智能還能讓我們大幅度提高智商和情商,還能幫助我們創(chuàng)造這種有趣的體驗(yàn)世界,讓我們享樂。
這是Bostrom這個(gè)明顯不在信心角的人的觀點(diǎn),但也是很多反對(duì)Kurzweil的專家的觀點(diǎn),他們不覺得Kurzweil是在說夢(mèng)話,只是覺得我們首先要安全達(dá)成超人工智能。這也是為什么我覺得Kurzweil的觀點(diǎn)很有傳染性,他傳達(dá)了正面的信息,而這些事情都是可能的——如果超人工智能是個(gè)仁慈的神的話。
對(duì)信心角的最有力的批評(píng),是那些信心角里的人都低估了超人工智能的壞處。Kurzweil的暢銷書《The Singularity is Near》700多頁,只有20頁用來討論人工智能的危險(xiǎn)。前面提到,當(dāng)超人工智能降臨時(shí)我們的命運(yùn)取決于誰掌握這股力量,以及他們是不是好人。Kurzweil的回答是“超人工智能正從多方的努力中出現(xiàn),它將深深的融入我們文明的基建中。它會(huì)親密的被捆綁在我們的身體和大腦中,它會(huì)反映我們的價(jià)值,因?yàn)樗褪俏覀??!?/p>
但如果答案就是這樣的話,為什么這個(gè)世界上最聰明的一些人會(huì)很擔(dān)憂?為什么霍金會(huì)說超人工智能會(huì)毀滅人類?為什么比爾蓋茨會(huì)不理解為什么有人不為此擔(dān)憂?為什么馬斯克會(huì)擔(dān)心我們是在召喚惡魔?為什么那么多專家擔(dān)心超人工智能是對(duì)人類最大的威脅?這些站在焦慮大道上的思想家,不認(rèn)同Kurzweil對(duì)于人工智能的危險(xiǎn)的粉飾。他們非常非常擔(dān)心人工智能革命,他們不關(guān)注平衡木下比較有趣的那一個(gè)吸引態(tài),而是盯著平衡木的另一邊,而他們看到的是可怕的未來,一個(gè)我們未必能夠逃離的未來。
___________
我想了解人工智能的一個(gè)原因是“壞機(jī)器人”總是讓我很困惑。那些關(guān)于邪惡機(jī)器人的電影看起來太不真實(shí),我也沒法想象一個(gè)人工智能變得危險(xiǎn)的真實(shí)情況。機(jī)器人是我們?cè)斓?,難道我們不會(huì)在設(shè)計(jì)時(shí)候防止壞事的發(fā)生嗎?我們難道不能設(shè)立很多安全機(jī)制嗎?再不濟(jì),難道我們不能拔插頭嗎?而且為什么機(jī)器人會(huì)想要做壞事?或者說,為什么機(jī)器人會(huì)“想要”做任何事?我充滿疑問,于是我開始了解聰明人們的想法。
這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無助的——恐慌和無助在圖上的位置是更加左邊——他們只是緊張。位于圖表的中央不代表他們的立場是中立的——真正中立的人有自己獨(dú)立的陣營,他們認(rèn)同極好和極壞兩種可能,但是不確定究竟會(huì)是哪個(gè)。
焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔(dān)心人類現(xiàn)在的表現(xiàn)。
那究竟是什么讓焦慮大道的人們?nèi)绱私箲]呢?
首先,廣義上來講,在創(chuàng)造超人工智能時(shí),我們其實(shí)是在創(chuàng)造可能一件會(huì)改變所有事情的事物,但是我們對(duì)那個(gè)領(lǐng)域完全不清楚,也不知道我們到達(dá)那塊領(lǐng)域后會(huì)發(fā)生什么??茖W(xué)家Danny Hillis把這個(gè)比作“就好像單細(xì)胞生物向多細(xì)胞生物轉(zhuǎn)化的時(shí)候那樣,還是阿米巴蟲的我們沒有辦法知道我們究竟在創(chuàng)造什么鬼?!?/p>
Bostrom則擔(dān)憂創(chuàng)造比自身聰明的東西是個(gè)基礎(chǔ)的達(dá)爾文錯(cuò)誤,就好像麻雀媽媽決定收養(yǎng)一只小貓頭鷹,并且覺得貓頭鷹長大后會(huì)保護(hù)麻雀一家,但是其它麻雀卻覺得這是個(gè)糟糕的主意。
當(dāng)你把“對(duì)那個(gè)領(lǐng)域完全不清楚”和“當(dāng)它發(fā)生時(shí)將會(huì)產(chǎn)生巨大的影響”結(jié)合在一起時(shí),你創(chuàng)造出了一個(gè)很恐怖的詞——生存危機(jī)??赡軐?duì)人類產(chǎn)生永久的災(zāi)難性效果的事情。通常來說,生存危機(jī)意味著滅絕。下面是Bostrom的圖表:
可以看到,生存危機(jī)是用來指那些跨物種、跨代(永久傷害)并且有嚴(yán)重后果的事情。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了。三類事情可能造成人類的生存危機(jī):
1)自然——大型隕石沖撞,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金、卡爾薩根等建議我們不要對(duì)外廣播自己的位置。他們不想我們變成邀請(qǐng)別人來殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,全球的災(zāi)難性戰(zhàn)爭,還有不經(jīng)思考就造出個(gè)比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬年還沒有發(fā)生,所以在接下來一個(gè)世紀(jì)發(fā)生的可能性不大。3則讓他很害怕,他把這些比作一個(gè)裝著玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是紅色的,只有幾個(gè)是黑色的。每次人類發(fā)明一些新東西,就相當(dāng)于從罐中取出一個(gè)玻璃球。大多數(shù)發(fā)明是有利或者中立的——那些是白色玻璃球。有些發(fā)明對(duì)人類是有害的,比如大規(guī)模殺傷性武器——這是那些紅色玻璃球。還有一些發(fā)明是可以讓我們滅絕的,這就是那些黑色玻璃球。很明顯的,我們還沒摸到黑色玻璃球,但是Bostrom認(rèn)為不久的未來摸到一個(gè)黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,那恐怖分子很快會(huì)把我們炸回石器時(shí)代。核武器還算不上黑色玻璃球,但是差的不遠(yuǎn)了。而超人工智能是我們最可能摸到的黑色玻璃球。
你會(huì)聽到很多超人工智能帶來的壞處——人工智能取代人類工人,造成大量失業(yè);因?yàn)榻鉀Q了衰老造成的人口膨脹。但是真正值得我們擔(dān)心的是生存危機(jī)的可能性。
于是我們又回到了前面的問題,當(dāng)超人工智能降臨時(shí),誰會(huì)掌握這份力量,他們又會(huì)有什么目標(biāo)?
當(dāng)我們考慮各種力量持有人和目標(biāo)的排列組合時(shí),最糟糕的明顯是:懷著惡意的人/組織/政府,掌握著懷有惡意的超人工智能。這會(huì)是什么樣的情況呢?
懷著惡意的人/組織/政府,研發(fā)出第一個(gè)超人工智能,并且用它來實(shí)現(xiàn)自己的邪惡計(jì)劃。我把這稱作賈法爾情況。阿拉丁神燈故事中,壞人賈法爾掌握了一個(gè)精靈,特別讓人討厭。所以如果ISIS手下有一群工程師狂熱的研發(fā)人工智能怎么辦?或者說伊朗和朝鮮,機(jī)緣巧合,不小心造成了人工智能的快速發(fā)展,達(dá)成了超人工智能怎么辦?這當(dāng)然是很糟糕的事,但是大部分專家認(rèn)為糟糕的地方不在于這些人是壞人,而在于在這些情況下,這些人基本上是不經(jīng)思考就把超人工智能造出來,而一造出來就失去了對(duì)超人工智能的控制。
然后這些創(chuàng)造者,連著其他人的命運(yùn),都取決于這個(gè)超人工智能的動(dòng)機(jī)了。專家認(rèn)為一個(gè)懷著惡意并掌握著超人工智能的人可以造成很大的傷害,但不至于讓我們滅絕,因?yàn)閷<蚁嘈艍娜撕秃萌嗽诳刂瞥斯ぶ悄軙r(shí)會(huì)面臨一樣的挑戰(zhàn)。
如果被創(chuàng)造出來的超人工智能是懷有惡意的,并且決定毀滅我,怎么辦?這就是大部分關(guān)于人工智能的電影的劇情。人工智能變得和人類一樣聰明,甚至更加聰明,然后決定對(duì)人類下手——這里要指出,那些提醒我們要警惕人工智能的人談的根本不是這種電影情節(jié)。邪惡是一個(gè)人類的概念,把人類概念應(yīng)用到非人類身上叫作擬人化,本文會(huì)盡量避免這種做法,因?yàn)闆]有哪個(gè)人工智能會(huì)像電影里那樣變成邪惡的。
聯(lián)系客服