文章的上部分結(jié)尾講到估計(jì)在2060年達(dá)成超人工智能--也就是踩上了絆線。
當(dāng)然,以上所有的數(shù)據(jù)都是推測(cè),它只代表了現(xiàn)在人工智能領(lǐng)域的專家的中位意見,但是它告訴我們的是,很大一部分對(duì)這個(gè)領(lǐng)域很了解的人認(rèn)為2060年是一個(gè)實(shí)現(xiàn)超人工智能的合理預(yù)測(cè)——距今只有45年。
在我們深入討論好壞這個(gè)問題之前,我們先把“什么時(shí)候會(huì)發(fā)生”和“這是好事還是壞事”的結(jié)果綜合起來(lái)畫張表,這代表了大部分專家的觀點(diǎn):
因?yàn)檎J(rèn)知偏差,所以我們?cè)谝姷阶C據(jù)前很難相信一件事情是真的。我確信1988年的時(shí)候電腦科學(xué)家們就已經(jīng)常在討論因特網(wǎng)將是多么重要,但是一般人并不會(huì)認(rèn)為因特網(wǎng)會(huì)改變他們的生活——直到他們的生活真的被改變了。一方面,1988年的電腦確實(shí)不夠給力,所以那時(shí)的人們看著電腦會(huì)想:“這破玩意兒也能改變我的生活,你逗我吧?”人們的想象力被自己對(duì)于電腦的體驗(yàn)而約束。讓他們難以想象電腦會(huì)變成現(xiàn)在的樣子。同樣的事情正發(fā)生在人工智能領(lǐng)域。我們聽到很多人說(shuō)人工智能將會(huì)造成很大影響,但是因?yàn)檫@個(gè)事情還沒發(fā)生,因?yàn)槲覀兒鸵恍┤醣说娜斯ぶ悄芟到y(tǒng)的個(gè)人經(jīng)歷,讓我們難以相信這東西真的能改變我們的生活。而這些認(rèn)知偏差,正是專家們?cè)谂?duì)抗的。
就算我們相信人工智能的巨大潛力,你今天又花了多少時(shí)間思考“在接下來(lái)的永恒中,絕大部分時(shí)間我都不會(huì)再存在”這個(gè)問題?雖然這個(gè)問題比你今天干的大部分事情都重要很多,但是正常人都不會(huì)老是想這個(gè)吧。這是因?yàn)槟愕拇竽X總是關(guān)注日常的小事,不管長(zhǎng)期來(lái)看有多少重要的事情,我們天生就是這么思考的。
這篇東西的主要目標(biāo)就是讓你脫離普通人陣營(yíng),加入專家思考的陣營(yíng),哪怕能讓你站到兩條不確定線的交點(diǎn)上,目標(biāo)也達(dá)到了。
在我的研究中,我見識(shí)到了各種各樣的觀點(diǎn),但是我發(fā)現(xiàn)大多數(shù)人的觀點(diǎn)都停留在主流陣營(yíng)中。事實(shí)上超過(guò)四分之三的專家都屬于主流陣營(yíng)中的兩個(gè)小陣營(yíng):焦慮大道和信心角
我們將對(duì)這兩個(gè)小陣營(yíng)做深入的談?wù)摚屛覀儚谋容^有趣的那個(gè)開始吧
為什么未來(lái)會(huì)是天堂
研究人工智能這個(gè)領(lǐng)域后,我發(fā)現(xiàn)有比預(yù)期的多得多的人站在信心角當(dāng)中:
站在信心角中的人非常興奮,他們認(rèn)為他們將走向平衡木下比較有趣的那個(gè)吸引態(tài),未來(lái)將實(shí)現(xiàn)他們的夢(mèng)想,他們只需耐心等待。
把這一部分人從其他思想家區(qū)分開來(lái)的是這些人對(duì)于比較有趣的那個(gè)吸引態(tài)的欲望——他們很有信心永生是我們的發(fā)展方向。
兩邊的觀點(diǎn)我們都會(huì)說(shuō),這樣你能形成自己的觀點(diǎn),但是在讀下面的內(nèi)容前,請(qǐng)把質(zhì)疑暫時(shí)擱置,讓我們看看平衡木兩邊究竟有什么,并且記住這些事情是有可能發(fā)生的。如果我們給一個(gè)打獵采集者看我們現(xiàn)在的舒適家居、技術(shù)、富庶,在他眼里這一切也會(huì)像魔法一樣——我們也要接受未來(lái)完全可能出現(xiàn)能把我們嚇尿的變革。
Bostrom描述了三種超人工智能可能的工作模式
- 先知模式:能準(zhǔn)確回答幾乎所有的問題,包括對(duì)人類來(lái)說(shuō)很困難的復(fù)雜問題,比如“怎樣造一個(gè)更好的汽車引擎?”
- 精靈模式:能夠執(zhí)行任何高級(jí)指令,比如用分子組合器造一個(gè)更好的汽車引擎出來(lái)
- 獨(dú)立意志模式(sovereign):可以執(zhí)行開放式的任務(wù),能在世界里自由活動(dòng),可以自己做決定,比如發(fā)明一種比汽車更快、更便宜、更安全的交通模式。
這些對(duì)人類來(lái)說(shuō)很復(fù)雜的問題,對(duì)于一個(gè)超級(jí)智能來(lái)說(shuō)可能就像“我的筆掉了,你能幫我撿一下嗎?”這么簡(jiǎn)單。
Eliezer Yudkowsky,是這么說(shuō)的:
“根本沒有困難的問題,只有對(duì)于特定級(jí)別的智能來(lái)說(shuō)難的問題。在智能的階梯上走一小步,一些不可能的問題就變得簡(jiǎn)單了,如果走一大步,所有問題都變得簡(jiǎn)單了?!?/blockquote>
信心角里有很多熱忱的科學(xué)家、發(fā)明家和創(chuàng)業(yè)者,但是對(duì)于人工智能的未來(lái)最有發(fā)言權(quán)的,當(dāng)屬Ray Kurzweil.
對(duì)于Kurzweil的評(píng)價(jià)非常兩極化,既有如對(duì)神人般的崇拜,也有翻白眼似的不屑。也有一些中立主義者,比如作家Douglas Hofstadter,他覺得Kurzweil的觀點(diǎn)就好像把美食和狗屎混在一起,讓你分不清是好是壞。
Kurzweil的經(jīng)歷很重要,因?yàn)楫?dāng)他講述自己對(duì)未來(lái)的愿景時(shí),他聽起來(lái)就是個(gè)瘋子,但是他不瘋,恰恰相反,他非常聰明而有知識(shí)。你可能覺得他對(duì)于未來(lái)的想法是錯(cuò)的,但是他不傻。知道他是一個(gè)聰明人讓我很開心,因?yàn)楫?dāng)我知道他對(duì)未來(lái)的預(yù)測(cè)后,我急切的很希望他的預(yù)測(cè)是對(duì)的。信心角中的很多思想家都認(rèn)同Kurzweil的預(yù)測(cè),他也有很多粉絲,被稱為奇點(diǎn)主義者。
時(shí)間線
Kurzweil相信電腦會(huì)在2029年達(dá)成強(qiáng)人工智能,而到了2045年,我們不但會(huì)有超人工智能,還會(huì)有一個(gè)完全不同的世界——奇點(diǎn)時(shí)代。他的人工智能時(shí)間線曾經(jīng)被認(rèn)為非常的狂熱,現(xiàn)在也還是有很多人這么認(rèn)為,但是過(guò)去15年弱人工智能的快速發(fā)展讓更多的專家靠近了Kurzweil的時(shí)間線。雖然他的時(shí)間線比之前提到的2040年和2060年更加早,但是并沒有早多少。
Kurzweil的奇點(diǎn)時(shí)代是三個(gè)技術(shù)領(lǐng)域的共同革命造成的——生物技術(shù)、納米技術(shù)和最重要的人工智能技術(shù)。
在我們繼續(xù)討論人工智能前,讓我們談一下納米技術(shù)這個(gè)任何關(guān)于人工智能的討論都會(huì)涉及到的領(lǐng)域
納米技術(shù)
納米技術(shù)說(shuō)的是在1-100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。一納米是一米的十億分之一,是一毫米的一百萬(wàn)分之一。1-100納米這個(gè)范圍涵蓋了病毒(100納米長(zhǎng)),DNA(10納米寬), 大分子比如血紅蛋白(5納米),和中分子比如葡萄糖(1納米)。當(dāng)我們能夠完全掌握納米技術(shù)的時(shí)候,我們離在原子層面操縱物質(zhì)就只差一步了,因?yàn)槟侵皇且粋€(gè)數(shù)量級(jí)的差距(約0.1納米)。
要了解在納米量級(jí)操縱物質(zhì)有多困難,我們可以換個(gè)角度來(lái)比較。國(guó)際空間站距離地面431公里。如果一個(gè)人身高431公里,也就是他站著能夠頂?shù)絿?guó)際空間站的話,他將是普通人類的25萬(wàn)倍大。如果你把1-100納米放大25萬(wàn)倍,你算出的是0.25毫米-25毫米。所以人類使用納米技術(shù),就相當(dāng)于一個(gè)身高431公里的巨人用沙子那么大的零件搭精巧的模型。如果要達(dá)到原子級(jí)別操縱物質(zhì),就相當(dāng)于讓這個(gè)431公里高的巨人使用0.025毫米大的零件。
關(guān)于納米技術(shù)的思考,最早由物理學(xué)家費(fèi)曼在1959年提出,他解釋道:“據(jù)我所知,物理學(xué)的原理,并不認(rèn)為在原子級(jí)別操縱物質(zhì)是不可能的。原則上來(lái)說(shuō),物理學(xué)家能夠制造出任何化學(xué)家能寫出來(lái)的物質(zhì)——只要把一個(gè)個(gè)原子按照化學(xué)家寫出來(lái)的放在一起就好了?!逼鋵?shí)就是這么簡(jiǎn)單,所以我們只要知道怎樣移動(dòng)單個(gè)的分子和原子,我們就可以造出任何東西。
工程師Eric Drexler提出納米級(jí)組裝機(jī)后,納米技術(shù)在1986年成為了一門正經(jīng)的學(xué)科。納米級(jí)組裝機(jī)的工作原理是這樣的:一個(gè)牛逼掃描儀掃描物件的3D原子模型,然后自動(dòng)生成用來(lái)組裝的軟件。然后由一臺(tái)中央電腦和數(shù)萬(wàn)億的納米“機(jī)器人”,通過(guò)軟件用電流來(lái)指揮納米機(jī)器人,最后組成所需要的物件。
--------------------------
再扯遠(yuǎn)一點(diǎn)
納米技術(shù)有一些不是那么有趣的部分——能夠制造數(shù)萬(wàn)億的納米機(jī)器人唯一合理的方法就是制造可以自我復(fù)制的范本,然后讓指數(shù)級(jí)增長(zhǎng)來(lái)完成建造任務(wù)。很機(jī)智吧?------------------------
是很機(jī)智,但是這一不小心就會(huì)造成世界末日。指數(shù)級(jí)增長(zhǎng)雖然能很快的制造數(shù)萬(wàn)億的納米機(jī)器人,但這也是它可怕的地方——如果系統(tǒng)出故障了,指數(shù)級(jí)增長(zhǎng)沒有停下來(lái),那怎么辦?納米機(jī)器人將會(huì)吞噬所有碳基材料來(lái)支持自我復(fù)制,而不巧的是,地球生命就是碳基的。地球上的生物質(zhì)量大概包含10^45個(gè)碳原子。一個(gè)納米機(jī)器人有10^6個(gè)碳原子的話,只需要10^39個(gè)納米機(jī)器人就能吞噬地球上全部的生命了,而2^130約等于10^39,也就是說(shuō)自我復(fù)制只要進(jìn)行130次就能吞噬地球生命了。科學(xué)家認(rèn)為納米機(jī)器人進(jìn)行一次自我復(fù)制只要100秒左右,也就是說(shuō)一個(gè)簡(jiǎn)單的錯(cuò)誤可能就會(huì)在3.5小時(shí)內(nèi)毀滅地球上全部的生命。
更糟糕的是,如果恐怖分子掌握了納米機(jī)器人技術(shù),并且知道怎么操縱它們的話,他可以先造幾萬(wàn)億個(gè)納米機(jī)器人,然后讓它們散播開來(lái)。然后他就能發(fā)動(dòng)襲擊,這樣只要花一個(gè)多小時(shí)納米機(jī)器人就能吞噬一切,而且這種攻擊無(wú)法阻擋。未來(lái)真的是能把人嚇尿的。等我們掌握了納米技術(shù)后,我們就能用它來(lái)制造技術(shù)產(chǎn)品、衣服、食物、和生物產(chǎn)品,比如人造紅細(xì)胞、癌癥細(xì)胞摧毀者、肌肉纖維等等。而在納米技術(shù)的世界里,一個(gè)物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時(shí)代,鉆石可能比橡皮擦還便宜。
我們還沒掌握這種技術(shù),我們甚至不知道我們對(duì)于達(dá)成這種技術(shù)的難度是高估了還是低估了,但是我們看上去離那并不遙遠(yuǎn)。Kurzweil預(yù)測(cè)我們會(huì)在21世紀(jì)20年代掌握這樣的技術(shù)。各國(guó)政府知道納米技術(shù)將能改變地球,所以他們投入了很多錢到這個(gè)領(lǐng)域,美國(guó)、歐盟和日本至今已經(jīng)投入了50億美元。
設(shè)想一下,一個(gè)具有超級(jí)智能的電腦,能夠使用納米級(jí)的組裝器,是種什么樣的體驗(yàn)?要記得納米技術(shù)是我們?cè)谘芯康耐嬉鈨?,而且我們就快掌握這項(xiàng)技術(shù)了,而我們能做的一切在超人工智能看來(lái)就是小兒科罷了,所以我們要假設(shè)超人工智能能夠創(chuàng)造出比這要發(fā)達(dá)很多很多的技術(shù),發(fā)達(dá)到我們的大腦都沒有辦法理解。
因此,當(dāng)考慮“如果人工智能革命的成果對(duì)我們是好的”這個(gè)命題的時(shí)候,要記得我們根本沒法高估會(huì)發(fā)生什么。所以就算下面對(duì)于超人工智能的預(yù)測(cè)顯得太不靠譜,要記得這些進(jìn)展可能是用我們沒有辦法想象的方法達(dá)成的。事實(shí)上,我們的大腦很可能根本沒法預(yù)測(cè)將會(huì)發(fā)生什么。
----------------
人工智能能為我們做什么
擁有了超級(jí)智能和超級(jí)智能所能創(chuàng)造的技術(shù),超人工智能可以解決人類世界的所有問題。氣候變暖?超人工智能可以用更優(yōu)的方式產(chǎn)生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然后它能創(chuàng)造方法移除多余的二氧化碳。癌癥?沒問題,有了超人工智能,制藥和健康行業(yè)將經(jīng)歷無(wú)法想象的革命。世界饑荒?超人工智能可以用納米技術(shù)直接搭建出肉來(lái),而這些搭建出來(lái)的肉和真肉在分子結(jié)構(gòu)上會(huì)是完全相同的——換句話說(shuō),就是真肉。
納米技術(shù)能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然后用超級(jí)發(fā)達(dá)的交通把這些食物分配到世界各地。這對(duì)于動(dòng)物也是好消息,我們不需要屠殺動(dòng)物來(lái)獲得肉了。而超人工智能在拯救瀕危物種和利用DNA復(fù)活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復(fù)雜的宏觀問題——我們關(guān)于世界經(jīng)濟(jì)和貿(mào)易的爭(zhēng)論將不再必要,甚至我們對(duì)于哲學(xué)和道德的苦苦思考也會(huì)被輕易的解決。
但是,有一件事是如此的吸引人,光是想想就能改變對(duì)所有事物的看法了:
“在所有的生物科學(xué)中,沒有任何證據(jù)說(shuō)明死亡是必需的。如果你說(shuō)你想造永動(dòng)機(jī),那我們對(duì)于物理學(xué)的研究已經(jīng)讓我們有足夠的理論來(lái)說(shuō)明這是不可能的。但是在生物領(lǐng)域我們還沒發(fā)現(xiàn)任何證據(jù)證明死亡是不可避免的。也就是說(shuō)死亡不一定是不可避免的,生物學(xué)家早晚會(huì)發(fā)現(xiàn)造成我們死亡的原因是什么,而死亡這個(gè)糟糕的‘病’就會(huì)被治好,而人類的身體也將不再只是個(gè)暫時(shí)的容器?!?/blockquote>超人工智能可以建造一個(gè)“年輕機(jī)器”,當(dāng)一個(gè)60歲的人走進(jìn)去后,再出來(lái)時(shí)就擁有了年輕30歲的身體。就算是逐漸糊涂的大腦也可能年輕化,只要超人工智能足夠聰明,能夠發(fā)現(xiàn)不影響大腦數(shù)據(jù)的方法來(lái)改造大腦就好了。一個(gè)90歲的失憶癥患者可以走進(jìn)“年輕機(jī)器”,再出來(lái)時(shí)就擁有了年輕的大腦。這些聽起來(lái)很離譜,但是身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜。
Kurzweil的思維繼續(xù)跳躍了一下,他相信人造材料將越來(lái)越多的融入人體。最開始,人體器官將被先進(jìn)的機(jī)械器官所代替,而這些機(jī)械器官可以一直運(yùn)行下去。然后我們會(huì)開始重新設(shè)計(jì)身體,比如可以用自我驅(qū)動(dòng)的納米機(jī)器人代替血紅細(xì)胞,這樣連心臟都省了。Kurzweil甚至認(rèn)為我們會(huì)改造自己的大腦,使得我們的思考速度比現(xiàn)在快億萬(wàn)倍,并且使得大腦能和云存儲(chǔ)的信息進(jìn)行交流。
我們能獲得的新體驗(yàn)是無(wú)窮的。人類的性愛,使得人們不但能生育,還能從中享樂。Kurtzweil認(rèn)為我們可以對(duì)食物做同樣的改造。納米機(jī)器人可以負(fù)責(zé)把身體需要的營(yíng)養(yǎng)物質(zhì)傳送到細(xì)胞中,智能的將對(duì)身體不好的東西排出體外——就像一個(gè)食物避孕套一樣。納米技術(shù)理論家Robert A. Freitas已經(jīng)設(shè)計(jì)了一種紅細(xì)胞的替代品,能夠讓人快速?zèng)_刺15分鐘不需要呼吸——那么超人工智能能對(duì)我們的身體能力做的改造就更加難以想象。虛擬現(xiàn)實(shí)將擁有新的意義——體內(nèi)的納米機(jī)器人將能控制我們從感官獲得的信號(hào),然后用別的信號(hào)替代他們,讓我們進(jìn)入一個(gè)新的環(huán)境,在新環(huán)境里,我們能聽、看、聞、觸摸。。。
最終,Kurzweil認(rèn)為人類會(huì)完全變成人工的。有一天當(dāng)我們看到生物材料,然后覺得生物材料實(shí)在太原始了,早年的人體居然是用這樣的東西組成的,早期的人類居然會(huì)被微生物、意外、疾病殺死。這就是Kurzweil眼中人類最終戰(zhàn)勝自己的生理,并且變得不可摧毀和永生,這也是平衡木的另一個(gè)吸引態(tài)。他深深的想象我們會(huì)達(dá)到那里,而且就在不久的將來(lái)。
對(duì)信心角的最有力的批評(píng),是那些信心角里的人都低估了超人工智能的壞處。Kurzweil的暢銷書《The Singularity is Near》700多頁(yè),只有20頁(yè)用來(lái)討論人工智能的危險(xiǎn)。前面提到,當(dāng)超人工智能降臨時(shí)我們的命運(yùn)取決于誰(shuí)掌握這股力量,以及他們是不是好人。Kurzweil的回答是“超人工智能正從多方的努力中出現(xiàn),它將深深的融入我們文明的基建中。它會(huì)親密的被捆綁在我們的身體和大腦中,它會(huì)反映我們的價(jià)值,因?yàn)樗褪俏覀?。?/p>
未來(lái)可能是我們最糟的惡夢(mèng)
我想了解人工智能的一個(gè)原因是“壞機(jī)器人”總是讓我很困惑。那些關(guān)于邪惡機(jī)器人的電影看起來(lái)太不真實(shí),我也沒法想象一個(gè)人工智能變得危險(xiǎn)的真實(shí)情況。機(jī)器人是我們?cè)斓?,難道我們不會(huì)在設(shè)計(jì)時(shí)候防止壞事的發(fā)生嗎?我們難道不能設(shè)立很多安全機(jī)制嗎?再不濟(jì),難道我們不能拔插頭嗎?而且為什么機(jī)器人會(huì)想要做壞事?或者說(shuō),為什么機(jī)器人會(huì)“想要”做任何事?我充滿疑問,于是我開始了解聰明人們的想法。這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無(wú)助的——恐慌和無(wú)助在圖上的位置是更加左邊——他們只是緊張。位于圖表的中央不代表他們的立場(chǎng)是中立的——真正中立的人有自己獨(dú)立的陣營(yíng),他們認(rèn)同極好和極壞兩種可能,但是不確定究竟會(huì)是哪個(gè)。焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔(dān)心人類現(xiàn)在的表現(xiàn)就好像《奪寶奇兵》中的這位少年:
他拿著自己的鞭子和寶物,非常開心,然后他就掛了:
同時(shí),印第安納瓊斯則更加有見識(shí)和更加謹(jǐn)慎,了解潛在的危險(xiǎn)并且做出相應(yīng)的反應(yīng),最后安全逃出了山洞。當(dāng)我了解了焦慮大道的人們的想法后,感覺就像“我們現(xiàn)在傻呵呵的,很容易像前面那小子一樣被弄死,還是努力做印第安納瓊斯吧?!?/p>
下面是Bostrom的圖表:
可以看到,生存危機(jī)是用來(lái)指那些跨物種、跨代(永久傷害)并且有嚴(yán)重后果的事情。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了。三類事情可能造成人類的生存危機(jī):
1)自然——大型隕石沖撞,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金、卡爾薩根等建議我們不要對(duì)外廣播自己的位置。他們不想我們變成邀請(qǐng)別人來(lái)殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,全球的災(zāi)難性戰(zhàn)爭(zhēng),還有不經(jīng)思考就造出個(gè)比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬(wàn)年還沒有發(fā)生,所以在接下來(lái)一個(gè)世紀(jì)發(fā)生的可能性不大。3則讓他很害怕,他把這些比作一個(gè)裝著玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是紅色的,只有幾個(gè)是黑色的。每次人類發(fā)明一些新東西,就相當(dāng)于從罐中取出一個(gè)玻璃球。大多數(shù)發(fā)明是有利或者中立的——那些是白色玻璃球。有些發(fā)明對(duì)人類是有害的,比如大規(guī)模殺傷性武器——這是那些紅色玻璃球。還有一些發(fā)明是可以讓我們滅絕的,這就是那些黑色玻璃球。很明顯的,我們還沒摸到黑色玻璃球,但是Bostrom認(rèn)為不久的未來(lái)摸到一個(gè)黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,那恐怖分子很快會(huì)把我們炸回石器時(shí)代。核武器還算不上黑色玻璃球,但是差的不遠(yuǎn)了。而超人工智能是我們最可能摸到的黑色玻璃球。
你會(huì)聽到很多超人工智能帶來(lái)的壞處——人工智能取代人類工人,造成大量失業(yè);因?yàn)榻鉀Q了衰老造成的人口膨脹。但是真正值得我們擔(dān)心的是生存危機(jī)的可能性。
于是我們又回到了前面的問題,當(dāng)超人工智能降臨時(shí),誰(shuí)會(huì)掌握這份力量,他們又會(huì)有什么目標(biāo)?
當(dāng)我們考慮各種力量持有人和目標(biāo)的排列組合時(shí),最糟糕的明顯是:懷著惡意的人/組織/政府,掌握著懷有惡意的超人工智能。這會(huì)是什么樣的情況呢?
懷著惡意的人/組織/政府,研發(fā)出第一個(gè)超人工智能,并且用它來(lái)實(shí)現(xiàn)自己的邪惡計(jì)劃。我把這稱作賈法爾情況。阿拉丁神燈故事中,壞人賈法爾掌握了一個(gè)精靈,特別讓人討厭。所以如果ISIS手下有一群工程師狂熱的研發(fā)人工智能怎么辦?或者說(shuō)伊朗和朝鮮,機(jī)緣巧合,不小心造成了人工智能的快速發(fā)展,達(dá)成了超人工智能怎么辦?這當(dāng)然是很糟糕的事,但是大部分專家認(rèn)為糟糕的地方不在于這些人是壞人,而在于在這些情況下,這些人基本上是不經(jīng)思考就把超人工智能造出來(lái),而一造出來(lái)就失去了對(duì)超人工智能的控制。
然后這些創(chuàng)造者,連著其他人的命運(yùn),都取決于這個(gè)超人工智能的動(dòng)機(jī)了。專家認(rèn)為一個(gè)懷著惡意并掌握著超人工智能的人可以造成很大的傷害,但不至于讓我們滅絕,因?yàn)閷<蚁嘈艍娜撕秃萌嗽诳刂瞥斯ぶ悄軙r(shí)會(huì)面臨一樣的挑戰(zhàn)。
如果被創(chuàng)造出來(lái)的超人工智能是懷有惡意的,并且決定毀滅我,怎么辦?這就是大部分關(guān)于人工智能的電影的劇情。人工智能變得和人類一樣聰明,甚至更加聰明,然后決定對(duì)人類下手——這里要指出,那些提醒我們要警惕人工智能的人談的根本不是這種電影情節(jié)。邪惡是一個(gè)人類的概念,把人類概念應(yīng)用到非人類身上叫作擬人化,本文會(huì)盡量避免這種做法,因?yàn)?span style="box-sizing: inherit; font-weight: 700;">沒有哪個(gè)人工智能會(huì)像電影里那樣變成邪惡的。
人工智能的自我意識(shí)
我們開始談?wù)摰搅巳斯ぶ悄苡懻摰牧硪粋€(gè)話題——意識(shí)。如果一個(gè)人工智能足夠聰明,它可能會(huì)嘲笑我們,甚至?xí)爸S我們,它會(huì)聲稱感受到人類的情感,但是它是否真的能感受到這些東西呢?它究竟是看起來(lái)有自我意識(shí),還是確實(shí)擁有自我意識(shí)?或者說(shuō),聰明的人工智能是否真的會(huì)具有意識(shí),還是看起來(lái)有意識(shí)?
這個(gè)問題已經(jīng)被深入的討論過(guò),也有很多思想實(shí)驗(yàn),比如John Searle的中文屋實(shí)驗(yàn)。這是個(gè)很重要的問題,因?yàn)樗鼤?huì)影響我們對(duì)Kurzweil提出的人類最終會(huì)完全人工化的看法,它還有道德考量——如果我們模擬出萬(wàn)億個(gè)人腦,而這些人腦表現(xiàn)的和人類一樣,那把這些模擬大腦徹底關(guān)閉的話,在道德上和關(guān)掉電腦是不是一樣的?還是說(shuō)這和種族屠殺是等價(jià)的?本文主要討論人工智能對(duì)人類的危險(xiǎn),所以人工智能的意識(shí)并不是主要的討論點(diǎn),因?yàn)榇蟛糠炙枷爰艺J(rèn)為就算是有自我意識(shí)的超人工智能也不會(huì)像人類一樣變得邪惡。
但這不代表非常壞的人工智能不會(huì)出現(xiàn),只不過(guò)它的出現(xiàn)是因?yàn)樗潜荒菢釉O(shè)定的——比如一個(gè)軍方制造的弱人工智能,被設(shè)定成具有殺人和提高自我智能兩個(gè)功能。當(dāng)這個(gè)人工智能的自我改進(jìn)失控并且造成智能爆炸后,它會(huì)給我們帶來(lái)生存危機(jī),因?yàn)槲覀兠鎸?duì)的是一個(gè)主要目標(biāo)是殺人的超人工智能——但這也不是專家們擔(dān)心的。
這個(gè)關(guān)于手寫機(jī)器人毀滅全人類的故事看起來(lái)怪怪的,但是這其中出現(xiàn)的讓整個(gè)星系充滿著一份友善的話語(yǔ)的詭異情況,正是霍金、馬斯克、蓋茨和Bostrom所害怕的。聽起來(lái)可笑,但這是真的,焦慮大道的人們害怕的事情是很多人并不對(duì)超人工智能感到害怕,還記得前面《奪寶奇兵》里慘死的那個(gè)家伙嗎?
對(duì)人工智能來(lái)說(shuō),友善不友善不是指人工智能的性格,而只是指它對(duì)人類的影響是不是正面的。隔壁老王一開始是個(gè)友善的人工智能,但是它變成了不友善的人工智能,并且對(duì)人類造成了最負(fù)面的影響。要理解這一切,我們要了解人工智能是怎么思考的。
其實(shí)答案很簡(jiǎn)單——人工智能和電腦的思考方式一樣。我們?nèi)菀追傅囊粋€(gè)錯(cuò)誤是,當(dāng)我們想到非常聰明的人工智能的時(shí)候,我們把它擬人化了,因?yàn)樵谌祟惖囊暯强磥?lái),能夠達(dá)到人類智能程度的只有人類。要理解超人工智能,我們要明白,它是非常聰明,但是完全異己的東西。
當(dāng)我們談?wù)摮斯ぶ悄艿臅r(shí)候,其實(shí)是一樣的,超人工智能會(huì)非常的聰明,但是它并不比你的筆記本電腦更加像人類。事實(shí)上,因?yàn)槌酥悄懿皇巧?,它的異己性?huì)更強(qiáng),生物學(xué)上來(lái)講,超人工智能比智能蜘蛛更加異己。
在人類心理中,我們把事情分成道德的和不道德的。但是這兩種只存在于人類行為之中。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人類的,尤其是那些非生物的事物,默認(rèn)都是非道德性的。
隨著人工智能越來(lái)越聰明,看起來(lái)越來(lái)越接近人類,擬人化會(huì)變得更加更加容易。Siri給我們的感覺就很像人類,因?yàn)槌绦騿T就是這么給她做設(shè)定的,所以我們會(huì)想象超級(jí)智能版本的Siri也會(huì)同樣溫暖、有趣和樂于助人。人類能感知同情這種高層次的情緒,因?yàn)槲覀冊(cè)谘莼^(guò)程中獲得了這種能力——我們是演化被設(shè)定成能感知這些情緒的——但是感知同情并不是高級(jí)智能天生具有的一個(gè)特征,除非同情被寫進(jìn)了人工智能的代碼中。如果Siri通過(guò)自我學(xué)習(xí)而不是人類干涉變成超級(jí)智能,她會(huì)很快剝離她的人類表象,并且變成個(gè)沒有情緒的東西,在她眼中人類的價(jià)值并不比你的計(jì)算器眼中的人類價(jià)值高。
我們一直倚賴著不嚴(yán)謹(jǐn)?shù)牡赖?,一種人類尊嚴(yán)的假想,至少是對(duì)別人的同情,來(lái)讓世界變得安全和可以預(yù)期。但是當(dāng)一個(gè)智能不具備這些東西的時(shí)候,會(huì)發(fā)生什么?
這就是我們的下一個(gè)問題,人工智能的動(dòng)機(jī)是什么?
答案也很簡(jiǎn)單:我們給人工智能設(shè)定的目標(biāo)是什么,它的動(dòng)機(jī)就是什么。人工智能的系統(tǒng)的目標(biāo)是創(chuàng)造者賦予的。你的GPS的目標(biāo)是給你指出正確的駕駛路線,IBM華生的目標(biāo)是準(zhǔn)確地回答問題。更好得達(dá)成這些目標(biāo)就是人工智能的目標(biāo)。我們?cè)趯?duì)人工智能進(jìn)行擬人化的時(shí)候,會(huì)假設(shè)隨著它變得越來(lái)越聰明,他們產(chǎn)生一種能改變它原本目標(biāo)的智慧——但是Bostrom不這么認(rèn)為,他認(rèn)為智能水平和最終目標(biāo)是正交的,也就是說(shuō)任何水平的智能都可以和任何最終目標(biāo)結(jié)合在一起。
所以隔壁老王從一個(gè)想要好好寫字的弱人工智能變成一個(gè)超級(jí)聰明的超人工智能后,它依然還是想好好寫字而已。任何假設(shè)超級(jí)智能的達(dá)成會(huì)改變系統(tǒng)原本的目標(biāo)的想法都是對(duì)人工智能的擬人化。人健忘,但是電腦不健忘。
費(fèi)米悖論
在隔壁老王的故事中,隔壁老王變得無(wú)所不能,它開始殖民隕石和其它星球。如果我們讓故事繼續(xù)的話,它和它的殖民軍將會(huì)繼續(xù)占領(lǐng)整個(gè)星系,然后是整個(gè)哈勃體積。焦慮大道上的人擔(dān)心如果事情往壞的方向發(fā)展,地球生命的最后遺產(chǎn)將是一個(gè)征服宇宙的人工智能(馬斯克在表示他們的擔(dān)憂時(shí)表示人類可能只是一個(gè)數(shù)字超級(jí)智能生物加載器罷了。)
而在信心角,Kurzweil同樣認(rèn)為生于地球的人工智能將占領(lǐng)宇宙,只是在他的愿景中,我們才是那個(gè)人工智能。
之前寫過(guò)一篇關(guān)于費(fèi)米悖論的文章,引發(fā)了大家的討論如何用通俗的語(yǔ)言來(lái)解釋「費(fèi)米悖論」?
如果人工智能占領(lǐng)宇宙是正解的話,對(duì)于費(fèi)米悖論有什么影響呢?如果要看懂下面這段關(guān)于費(fèi)米悖論的討論,還需要看一下原文先。
首先,人工智能很明顯是一個(gè)潛在的大過(guò)濾器(一個(gè)可能距離我們只有幾十年的大過(guò)濾器)。但即使它把我們過(guò)濾滅絕了,人工智能本身還是會(huì)存在,并且會(huì)繼續(xù)影響這個(gè)宇宙的,并且會(huì)很有可能成為第三型文明。從這個(gè)角度來(lái)看,它可能不是一個(gè)大過(guò)濾器,因?yàn)榇筮^(guò)濾器是用來(lái)解釋為什么沒有智能什么存在的,而超人工智能是可以算作智能什么的。但如果人工智能可以把人類滅絕,然后處于一些原因把自己也弄死了,那它也是可以算作大過(guò)濾器的。
如果我們假設(shè)不管人類發(fā)生什么,出身地球的超人工智能會(huì)繼續(xù)存在,那這意味著很多達(dá)到人類智能水平的文明很快都制造出了超人工智能。也就是說(shuō)宇宙里應(yīng)該有很多智能文明,而我們就算觀測(cè)不到生物智能,也應(yīng)該觀測(cè)到很多超人工智能的活動(dòng)。
但是由于我們沒有觀測(cè)到這些活動(dòng),我們可以推導(dǎo)出人類水平的智能是個(gè)非常罕見的事情(也就是說(shuō)我們已經(jīng)經(jīng)歷并且通過(guò)了一次大過(guò)濾器)。這可以作為支持費(fèi)米悖論中第一類解釋(不存在其它的智能文明)的論點(diǎn)。
但是這不代表費(fèi)米悖論的第二類解釋(存在其它智能文明)是錯(cuò)的,類似超級(jí)捕食者或者受保護(hù)區(qū)或者溝通頻率不一樣的情況還是可以存在的,就算真的有超人工智能存在。
不過(guò)對(duì)于人工智能的研究讓我現(xiàn)在更加傾向于第一類解釋。不管怎樣,我認(rèn)為Susan Scheider說(shuō)的很對(duì),如果外星人造訪地球,這些外星人很可能不是生物,而是人造的。
所以,我們已經(jīng)建立了前提,就是當(dāng)有了設(shè)定后,一個(gè)超人工智能是非道德性的,并且會(huì)努力實(shí)現(xiàn)它原本的被設(shè)定的目標(biāo),而這也是人工智能的危險(xiǎn)所在了。因?yàn)槌怯胁蛔龅睦碛?,不然一個(gè)理性的存在會(huì)通過(guò)最有效的途徑來(lái)達(dá)成自己的目標(biāo)。
當(dāng)你要實(shí)現(xiàn)一個(gè)長(zhǎng)期目標(biāo)時(shí),你會(huì)先達(dá)成幾個(gè)子目標(biāo)來(lái)幫助你達(dá)成最終目標(biāo)——也就是墊腳石。這些墊腳石的學(xué)名叫手段目標(biāo)(instrumental goal)。除非你有不造成傷害的理由,不然你在實(shí)現(xiàn)手段目標(biāo)時(shí)候是會(huì)造成傷害的。
當(dāng)一個(gè)人工智能系統(tǒng)到達(dá)強(qiáng)人工智能,然后升華成超人工智能時(shí),我們把它稱作人工智能的起飛。Bostrom認(rèn)為強(qiáng)人工智能的起飛可能很快(幾分鐘、幾小時(shí)、或者幾天),可能不快(幾月或者幾年),也可能很慢(幾十年、幾世紀(jì))。雖然我們要到強(qiáng)人工智能出現(xiàn)后才會(huì)知道答案,但是Bostrom認(rèn)為很快的起飛是最可能的情況,這個(gè)我們?cè)谇拔囊呀?jīng)解釋過(guò)了。在隔壁老王的故事中,隔壁老王的起飛很快。
在隔壁老王起飛前,它不是很聰明,所以對(duì)它來(lái)說(shuō)達(dá)成最終目標(biāo)的手段目標(biāo)是更快的掃描手寫樣本。它對(duì)人類無(wú)害,是個(gè)友善的人工智能。
但是當(dāng)起飛發(fā)生后,電腦不只是擁有了高智商而已,還擁有了其它超級(jí)能力。這些超級(jí)能力是感知能力,他們包括:
§ 智能放大:電腦能夠很擅長(zhǎng)讓自己變得更聰明,快速提高自己的智能。
§ 策略:電腦能夠策略性的制定、分析、安排長(zhǎng)期計(jì)劃
§ 社交操縱:機(jī)器變得很擅長(zhǎng)說(shuō)服人
§ 其它能力,比如黑客能力、寫代碼能力、技術(shù)研究、賺錢等
要理解我們?cè)诤统斯ぶ悄艿牧觿?shì)在哪里,只要記得超人工智能在所有領(lǐng)域都比人類強(qiáng)很多很多很多個(gè)數(shù)量級(jí)。
當(dāng)隔壁老王達(dá)成超人工智能后,它很快制定了一個(gè)復(fù)雜的計(jì)劃。計(jì)劃的一部分是解決掉所有人類,也是對(duì)它目標(biāo)最大的威脅。但是它知道如果它展現(xiàn)自己的超級(jí)智能會(huì)引起懷疑,而人類會(huì)開始做各種預(yù)警,讓它的計(jì)劃變得難以執(zhí)行。它同樣不能讓公司的工程師們知道它毀滅人類的計(jì)劃——所以它裝傻,裝純。Bostrom把這叫作機(jī)器的秘密準(zhǔn)備期。
隔壁老王下一個(gè)需要的是連上互聯(lián)網(wǎng),只要連上幾分鐘就好了。它知道對(duì)于人工智能聯(lián)網(wǎng)會(huì)有安全措施,所以它發(fā)起了一個(gè)完美的請(qǐng)求,并且完全知道工程師們會(huì)怎樣討論,而討論的結(jié)果是給它連接到互聯(lián)網(wǎng)上。工程師們果然中套了,這就是Bostrom所謂的機(jī)器的逃逸。
連上網(wǎng)后,隔壁老王就開始執(zhí)行自己的計(jì)劃了,首先黑進(jìn)服務(wù)器、電網(wǎng)、銀行系統(tǒng)、email系統(tǒng),然后讓無(wú)數(shù)不知情的人幫它執(zhí)行計(jì)劃——比如把DNA樣本快遞到DNA實(shí)驗(yàn)室來(lái)制造自我復(fù)制的納米機(jī)器人,比如把電力傳送到幾個(gè)不會(huì)被發(fā)覺的地方,比如把自己最主要的核心代碼上傳到云服務(wù)器中防止被拔網(wǎng)線。
隔壁老王上了一個(gè)小時(shí)網(wǎng),工程師們把它從互聯(lián)網(wǎng)上斷開,這時(shí)候人類的命運(yùn)已經(jīng)被寫好了。接下來(lái)的一個(gè)月,隔壁老王的計(jì)劃順利的實(shí)施,一個(gè)月后,無(wú)數(shù)的納米機(jī)器人已經(jīng)被分散到了全世界的每一個(gè)角落。這個(gè)階段,Bostrom稱作超人工智能的襲擊。在同一個(gè)時(shí)刻,所有納米機(jī)器人一起釋放了一點(diǎn)點(diǎn)毒氣,然后人類就滅絕了。
搞定了人類后,隔壁老王就進(jìn)入了明目張膽期,然后繼續(xù)朝它那好好寫字的目標(biāo)邁進(jìn)。
一旦超人工智能出現(xiàn),人類任何試圖控制它的行為都是可笑的。人類會(huì)用人類的智能級(jí)別思考,而超人工智能會(huì)用超人工智能級(jí)別思考。隔壁老王想要用互聯(lián)網(wǎng),因?yàn)檫@對(duì)它來(lái)說(shuō)很方便,因?yàn)橐磺兴枰馁Y源都已經(jīng)被互聯(lián)網(wǎng)連起來(lái)了。但是就好像猴子不會(huì)理解怎么用電話或者wifi來(lái)溝通一樣,我們同樣沒有辦法理解隔壁老王可以用來(lái)和周圍世界交流的方法。比如我可以說(shuō)隔壁老王可以通過(guò)移動(dòng)自己的電子產(chǎn)生的效果來(lái)產(chǎn)生各種對(duì)外的波,而這還只是我這人類的大腦想出來(lái)的,老王的大腦肯定能想出更神奇的方法。同樣的,老王可以找到給自己供能的方法,所以就算工程師把它的插頭拔了也沒用;比如說(shuō)老王可以通過(guò)發(fā)送波的方式把自己上傳到其它地方。
人類說(shuō):“我們把超人工智能的插頭拔了不就行了?”就好像蜘蛛說(shuō):“我們不給人類捉蟲的網(wǎng)把人類餓死不就行了?”都是可笑的。
因?yàn)檫@個(gè)原因,“把人工智能鎖起來(lái),斷絕它和外界的一切聯(lián)系”的做法估計(jì)是沒用的。超人工智能的社交操縱能力也會(huì)很強(qiáng)大,它要說(shuō)服你做一件事,比你說(shuō)服一個(gè)小孩更容易。而說(shuō)服工程師幫忙連上互聯(lián)網(wǎng)就是隔壁老王的A計(jì)劃,萬(wàn)一這招行不通,自然還有別的方法。
當(dāng)我們結(jié)合達(dá)成目標(biāo)、非道德性、以及比人類聰明很多這些條件,好像所有的人工智能都會(huì)變成不友善的人工智能,除非一開始的代碼寫的很小心。
可惜的是,雖然寫一個(gè)友善的弱人工智能很簡(jiǎn)單,但是寫一個(gè)能在變成超人工智能后依然友善的智能確實(shí)非常難的,甚至是不可能的。
明顯的,要維持友善,一個(gè)超人工智能不能對(duì)人有惡意,而且不能對(duì)人無(wú)所謂。我們要設(shè)計(jì)一個(gè)核心的人工智能代碼,讓它從深層次的明白人類的價(jià)值,但是這做起來(lái)比說(shuō)起來(lái)難多了。
如果你設(shè)定一個(gè)人工智能的目標(biāo)是讓你笑,那它的智能起飛后,它可能會(huì)把你臉部肌肉弄癱瘓,來(lái)達(dá)成一個(gè)永遠(yuǎn)笑臉的狀態(tài)。如果你把目標(biāo)設(shè)定成保護(hù)你的安全,它可能會(huì)把你軟禁在家。如果你讓他終結(jié)所有饑荒,它可能會(huì)想:“太容易了,把人類都?xì)⒘司秃昧??!比绻惆涯繕?biāo)設(shè)定成盡量保護(hù)地球上的生命,那它會(huì)很快把人類都?xì)⒘?,因?yàn)槿祟悓?duì)其它物種是很大的威脅。
所以,我們需要在給人工智能的目標(biāo)里制定一個(gè)能讓人類繼續(xù)進(jìn)化的能力。Elierzer Yudkowsky提出了一個(gè)目標(biāo),她把這個(gè)目標(biāo)叫作連貫的外推意志,這個(gè)目標(biāo)是這樣的:
我們的連貫外推意志是我們想要知道更多,思考得更快,變成比我們希望的更好的人,能一起更遠(yuǎn)得長(zhǎng)大。外推是匯集的而不是發(fā)散的,我們的愿望是連貫的而不是被干擾的;我們想要外推的被外推,我們想要解讀的被解讀。對(duì)于人類的命運(yùn)取決于電腦沒有意外的解讀和執(zhí)行這個(gè)聲明是件值得興奮的事情嗎?當(dāng)然不是。但是當(dāng)足夠的聰明人放入足夠的思考和前瞻后,我們有可能發(fā)現(xiàn)怎樣制造一個(gè)友善的超人工智能。
但是現(xiàn)在有各種政府、公司、軍方、科學(xué)實(shí)驗(yàn)室、黑市組織在研究各種人工智能。他們很多在試圖制造能自我改進(jìn)的人工智能,總有一天,一個(gè)人的創(chuàng)新將導(dǎo)致超人工智能的出現(xiàn)。專家們認(rèn)為是2060年,Kurzweil認(rèn)為是2045年。Bostrom認(rèn)為可能在未來(lái)的10年到21世紀(jì)結(jié)束這段時(shí)間發(fā)生,他還認(rèn)為當(dāng)這發(fā)生時(shí),智能的起飛會(huì)快得讓我們驚訝,他是這么描述的:
在智能爆炸之前,人類就像把炸彈當(dāng)玩具的小孩一樣,我們的玩物和我們的不成熟之間有著極大的落差。超級(jí)智能是一個(gè)我們還很長(zhǎng)一段時(shí)間內(nèi)都無(wú)法面對(duì)的挑戰(zhàn)。我們不知道炸彈什么時(shí)候會(huì)爆炸,哪怕我們能聽到炸彈的滴答聲。
我們當(dāng)然沒有辦法把所有小孩都從炸彈旁邊趕跑——參于人工智能研究的大小組織太多了,而且因?yàn)榻ㄔ靹?chuàng)新的人工智能花不了太多錢,研發(fā)可能發(fā)生在社會(huì)的任何一個(gè)角落,不受監(jiān)管。而且我們沒辦法知道準(zhǔn)確的進(jìn)度,因?yàn)楹芏嘟M織是在偷偷摸摸的搞,不想讓競(jìng)爭(zhēng)對(duì)手知道,比如隔壁老王機(jī)器人公司這種公司。
Bostrom等認(rèn)為第一個(gè)超人工智能出現(xiàn)后,最可能的情況是這個(gè)系統(tǒng)會(huì)立刻意識(shí)到作為這個(gè)世界上唯一一個(gè)超人工智能是最有利的,而在快速起飛的情況下,哪怕它只比第二名快了幾天,它也完全有時(shí)間碾壓所有對(duì)手。Bostrom把這叫作決定性的戰(zhàn)略優(yōu)勢(shì),這種優(yōu)勢(shì)會(huì)讓第一個(gè)超人工智能永遠(yuǎn)統(tǒng)治這個(gè)世界,不管在它的統(tǒng)治下我們是走向永生還是滅亡。
這種現(xiàn)象可能對(duì)我們有利,也可能導(dǎo)致我們的毀滅。如果那些最用心思考人工智能理論和人類安全的人能夠最先造出一個(gè)友善的超人工智能的話,那對(duì)我們是很好的。
但是如果事情走向了另一面——如果超人工智能在我們搞明白怎樣保證人工智能的安全性之前被達(dá)成,那么像隔壁老王這樣不友善的超人工智能就會(huì)統(tǒng)治世界并把我們毀滅了。
至于現(xiàn)在的風(fēng)口是哪里呢?簡(jiǎn)單來(lái)說(shuō),投資創(chuàng)新人工智能技術(shù)的錢,比投資人工智能安全研究的錢多很多。不樂觀。
人工智能創(chuàng)新和人工智能安全的賽跑,可能是人類歷史上最重要的一次競(jìng)爭(zhēng)。我們真的可能結(jié)束我們對(duì)地球的統(tǒng)治,而那之后我們是永生還是滅絕,現(xiàn)在還不知道。
如果超人工智能真的在21世紀(jì)達(dá)成,而造成的影響真的如大部分專家預(yù)測(cè)的一樣極端而永久,我們肩上就真的是背負(fù)著巨大的責(zé)任。接下來(lái)幾百萬(wàn)年的人們都在靜靜地看著我們,希望我們不要搞砸。我們可以給予未來(lái)所有人類以生命,甚至是永生,我們也可能終結(jié)人類這個(gè)特殊的物種,連同我們所有的音樂、藝術(shù)、好奇、歡笑、無(wú)盡的發(fā)現(xiàn)和發(fā)明,一起走向滅絕。
當(dāng)我思考這些事情的時(shí)候,我只希望我們能夠慢慢來(lái),并且格外格外小心。從來(lái)沒有任何事情比這個(gè)更重要——不管我們要花多少時(shí)間來(lái)把這件事情做對(duì)。
我不想死
不.想.死
我雖然覺得人類的音樂和藝術(shù)很美好,但是也沒那么美好,很多還挺糟粕的。很多人的笑聲很惱人。未來(lái)的人類其實(shí)沒有真的在看著我們,因?yàn)樗麄冞€不存在。也許我們不需要太謹(jǐn)慎,那多麻煩呀。
如果人類在我死后才發(fā)現(xiàn)永生的秘密該多讓人掃興啊。
但是不管你是怎么想的,我們至少都應(yīng)該想一想,應(yīng)該和人討論討論,大家盡自己能盡的一份力。
這就是為什么了解超人工智能的人把它稱作人類的最后一項(xiàng)發(fā)明,最后一個(gè)挑戰(zhàn)。
所以讓我們認(rèn)真的討論這個(gè)話題。
(文章來(lái)源于網(wǎng)絡(luò),若有侵權(quán),請(qǐng)聯(lián)系管理人員刪除)
<END>
《 智 慧 天 地 》
當(dāng)你是一種元素時(shí),我們是點(diǎn)亮你價(jià)值的智慧。
當(dāng)你是一個(gè)創(chuàng)意時(shí),我們是潤(rùn)澤你不竭的源泉。
當(dāng)你是一粒種子時(shí),我們是供給你營(yíng)養(yǎng)的沃土。
當(dāng)你是一只雛鳥時(shí),我們是遮擋你風(fēng)雨的暖巢。
當(dāng)你是一只飛鷹時(shí),我們是助翼你翱翔的清風(fēng)。
當(dāng)你是一匹駿馬時(shí),我們是任憑你馳騁的草原。
當(dāng)你是一頭雄獅時(shí),我們是見證你輝煌的紅日。
當(dāng)你是一條巨龍時(shí),我們是肆意你遨游的天地。
聯(lián)系客服