在《終結(jié)者》系列電影中,計算機防御體系“天網(wǎng)”獲得了自我意識,它認(rèn)定人類會威脅到自身的存在,于是開始實施滅絕人類的行動。這樣的場景在現(xiàn)實中并未出現(xiàn),但有科學(xué)家認(rèn)為,這一危險確實存在——人造智能技術(shù)越發(fā)達(dá),就越像“潘多拉的盒子”,一旦打開了,就會危害人類。英國劍橋大學(xué)近日宣布要組織專家成立一個“生存風(fēng)險研究中心”,又稱“終結(jié)者研究中心”,將致力于研究如何應(yīng)對人工智能產(chǎn)物可能給人類造成的威脅。
人類文明會被摧毀?
古希臘哲學(xué)家普羅泰戈拉在《論真理》中說“人是萬物的尺度”。人類也向來自詡為萬物之靈,認(rèn)為自己是世界的主宰。然而,從機器人出現(xiàn)的那天起,就有人預(yù)言這種人工智能的產(chǎn)物會統(tǒng)治地球,甚至整個宇宙。電影《2001太空漫游》里的一句臺詞,展現(xiàn)了人類與機器人之間的矛盾——“他們(人類)把我們造得太聰明,太完美,而到了最后,剩下的只會是我們”。
“機器人”(Robot)這個詞最早出現(xiàn)在捷克著名劇作家、科幻文學(xué)家、童話寓言家卡雷爾·恰佩克1921年創(chuàng)作的戲劇《羅素姆萬能機器人》中。在捷克語中,“機器人”一詞的意思是“奴隸”。
我們對于機器人的認(rèn)識,是從科幻小說與影片當(dāng)中開始的。如今,機器人早已不再是迷人的幻想。近些年來,智能機器人的研發(fā),已被廣泛應(yīng)用到水下探測、空間探測、醫(yī)學(xué)、軍事等領(lǐng)域,而且還越來越有“飛入尋常百姓家”的趨勢——從嬰幼兒照顧到老年人看護,小巧可愛的智能保姆機器人也很受歡迎。
機器人越來越聰明,種類和數(shù)量也越來越多,隨之而來的一個大問題就是,機器人會超越人類,最終統(tǒng)治人類,甚至摧毀人類的文明嗎?盡管科幻小說家艾薩克·阿西莫夫在他的小說中對機器人的行為進行了限制,提出了“機器人三大定律”——第一,機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二,機器人應(yīng)服從人的一切命令,但不得違反第一定律;第三,機器人應(yīng)保護自身的安全,但不得違反第一、第二定律。但人們依然十分擔(dān)心,機器人至少在理論上有可能會凌駕于創(chuàng)造了它們的人類之上。
有科學(xué)家認(rèn)為人類最大的風(fēng)險之一就是自掘墳?zāi)埂祟愑H手創(chuàng)造了機器人,但這種人工智能的產(chǎn)物卻有可能會毀滅創(chuàng)造了自己的人類。這種擔(dān)心在幾十年前也許會被嗤笑為杞人憂天,但現(xiàn)在,英國劍橋大學(xué)的一些科學(xué)家、哲學(xué)家和工程師宣布將成立生存風(fēng)險研究中心,專門研究對人類可能造成“滅頂之災(zāi)”的人工智能技術(shù)。
這個將于明年上半年開放的研究中心由劍橋大學(xué)著名哲學(xué)系教授休·普雷斯、宇宙學(xué)教授馬丁·里斯勛爵和斯蓋普公司的創(chuàng)始人揚·塔里安聯(lián)手創(chuàng)辦。這個中心將主要探討如何更好地控制智能機器人。專家們還將為人們詳細(xì)分析當(dāng)下不斷發(fā)展的人工智能中可能潛伏著的威脅。
人工智能可能失控?
普雷斯、里斯和塔里安三人均認(rèn)為“人類技術(shù)進步可能很快會對人類物種構(gòu)成毀滅的風(fēng)險”。他們想把哲學(xué)、天文學(xué)、生物學(xué)、機器人學(xué)、神經(jīng)學(xué)和經(jīng)濟學(xué)等不同學(xué)科的學(xué)者聚集起來,研究如何應(yīng)對這些威脅。普雷斯說:“目前機器在很多方面都比人類做得好,例如國際象棋、飛行、駕駛、金融交易等。我們擔(dān)心人類可能會把對地球的控制權(quán)拱手讓給人工智能機器?!?/p>
對此,劍橋大學(xué)的學(xué)者們決定嚴(yán)陣以待,以便確保人類不至于被自己制造的“惡魔”機器人毀滅。這個“終結(jié)者研究中心”的主要任務(wù)是研制如何抗衡可能導(dǎo)致人類滅絕的四大惡魔——人工智能、氣候變化、核戰(zhàn)爭和邪惡的生物技術(shù)。劍橋大學(xué)的學(xué)者們擔(dān)心氣候變化、核戰(zhàn)爭和邪惡的生物技術(shù)會導(dǎo)致人類的滅亡,但最擔(dān)心的還是智能機器對人類的叛變。
他們認(rèn)為,像“終結(jié)者”這樣的智能機器人,未來各個國家都會批量生產(chǎn),并投入到實際應(yīng)用中,一旦某種“超智能機器人”逃離了人們的控制,潛在威脅不可小覷。因此,人類必須在人工智能科技成熟前,找到控制智能機器人的好辦法。
在美國,一些人認(rèn)為,人工智能將推動人類進步。未來學(xué)家雷·庫日韋爾預(yù)測說,到2040年左右,人類將建造出一個可解決所有疾病的強大智能系統(tǒng)。但是,劍橋大學(xué)生存風(fēng)險研究中心的專家們則悲觀得多。
里斯勛爵說:“公眾沒有完全認(rèn)識到這些風(fēng)險的嚴(yán)重性?!彼?003年出版的《我們最后的世紀(jì)》一書里警告說:人類的破壞性及表現(xiàn)出來的各種自殘、自毀行為,最終可能導(dǎo)致2100年人類徹底滅絕。
普雷斯教授曾經(jīng)提醒人們,“超級智能機器”,或稱人工綜合智能,確實涉及人類存亡。他說:“超級人工智能有可能是‘潘多拉的盒子’,一旦盒蓋打開了,災(zāi)難也許會飛灑人世。我們對此務(wù)必重視,錯過這個關(guān)鍵時刻,就可能陷入滅頂之災(zāi)?!?/p>
當(dāng)然,普雷斯教授承認(rèn)現(xiàn)在誰都無法準(zhǔn)確預(yù)計超級人工智能會帶來哪些災(zāi)難,但這也正說明很有必要立項研究科技發(fā)展的“災(zāi)難性的一面”。他表示,劍橋大學(xué)已經(jīng)存在了800年,為了后人能夠慶祝它建校1000周年,現(xiàn)在就應(yīng)該提前打造抗擊“人類終結(jié)者機器人”的利劍。
普雷斯教授說,按照當(dāng)下的技術(shù)條件,很有可能在人們還沒有意識到人工智能技術(shù)所帶來的危害時,明年的某個時候,它也許就會擺脫生理學(xué)的禁錮。他表示,由于當(dāng)下人們對這一領(lǐng)域的潛在威脅信息掌握的極少,所以很有必要建立這樣一個學(xué)術(shù)機構(gòu)來專門研究這一問題。
人類需未雨綢繆
機器人有可能接管人類,這一直是科幻電影的中心主題。其中,最著名的就是“天網(wǎng)防火墻”——這是《終結(jié)者》電影中描述的一種流氓計算機系統(tǒng)。它獲得了自我意識,并且在被開發(fā)出來之后,就對人類進行了攻擊。
今天,有研究人員宣稱,在未來的某一時刻,機器人和計算機將比人類更聰明。他們稱,人類需要謹(jǐn)慎關(guān)注機器人比自己聰明的狀況?!斑@些風(fēng)險的嚴(yán)重性是難以評估的,但究竟存在什么風(fēng)險,這本身就是需要我們關(guān)心的問題?!?/p>
普雷斯教授說:“這似乎是一個合理的預(yù)言,在這個世紀(jì)或下個世紀(jì)的某一時刻,人工智能將會逃避開生物學(xué)的限制。我們正在嘗試把這一研究推向值得尊敬的科學(xué)團體?!?/p>
毫無疑問,機器人將成為人類文明的重要組成部分,電腦無處不在,未來,它還會被植入家具、衣服以及人體內(nèi),還可以將現(xiàn)實世界阻隔在外,讓人們進入一個完全的虛擬世界。盡管這并不是一場以取代人類為目標(biāo)的外星人入侵,但是我們難免會出現(xiàn)失誤或漏洞,這就會給機器人反客為主、控制人類的機會。
機器人是人類創(chuàng)造的科技產(chǎn)物,但是有很多人擔(dān)心駕馭不了自己創(chuàng)造的這種力量。早在20世紀(jì)初就有人預(yù)言人類將被機器人毀滅?!逗诳偷蹏返墓适掳l(fā)生在22世紀(jì),其中電腦取代人類,成為地球主宰的情形,令相當(dāng)一部分人不寒而栗。美國普林斯頓大學(xué)的薩帕尼可夫曾預(yù)言:人類將被機器人所代替,人將成為機器人的玩物,保存在動物園里。電影《終結(jié)者》和《黑客帝國》中,人類被機器人統(tǒng)治的場面,會在將來出現(xiàn)嗎?22世紀(jì)會是機器人的天下嗎?
無論怎么樣,隨著機器人技術(shù)的發(fā)展與應(yīng)用日臻成熟,機器人與人類的關(guān)系也日益密切,機器人的道德倫理問題也被越來越多的人關(guān)注,世界各國科學(xué)家呼吁出臺機器人倫理道德和法律規(guī)范的聲音也越來越大。當(dāng)機器人越來越接近每一個人的時候,我們需要做好長遠(yuǎn)考慮。