【導(dǎo)讀】: 我們?nèi)狈σ环N定義,人工智能是算法還是創(chuàng)造性,或者說算法能否抵達(dá)創(chuàng)造性的彼岸。人類的智慧是否足以誕生另一種智慧?我們對人工智能危機(jī)的憂慮其實(shí)恰恰源于我們自身智慧的缺陷。
關(guān)于世界末日的問題,大多數(shù)人盡量避免去思考; 但是有一群人,這卻是他們的職業(yè)。英國牛津大學(xué)的人類未來研究學(xué)院,專門研究人類種族的未來“大圖景”, 尤其是能徹底消滅我們的風(fēng)險。
正如你可能想象的那樣,所考慮的風(fēng)險包括核戰(zhàn)爭和流星撞擊,還有一個一般人也許意想不到的領(lǐng)域,那就是研究人工智能構(gòu)成的潛在威脅。電腦會變得如此聰明,以至于成為我們的競爭對手,它們把所有的工作都做了,最終會不會把人類全部消滅?這種“終結(jié)者”式的場景過去似乎只存在于科幻小說,但現(xiàn)在它開始被那些研究人工智能發(fā)展方向的人所認(rèn)真對待。
斯圖爾特·阿姆斯特朗是該研究學(xué)院的一名哲學(xué)家和研究員,他說:“我認(rèn)為現(xiàn)在發(fā)表的有關(guān)甲蟲或星際旅行的學(xué)術(shù)論文遠(yuǎn)比關(guān)于研究實(shí)際存在的風(fēng)險的論文多?!弊罱_始專注于人工智能領(lǐng)域?!笆澜缟虾苌儆蓄愃茩C(jī)構(gòu)在研究這些大型風(fēng)險.,相比其他小風(fēng)險類型,如交通安全之類的風(fēng)險,這種大型風(fēng)險的研究更是少得可憐。
“一件很可怕的事是,如果人工智能的發(fā)展出現(xiàn)偏差,它可能導(dǎo)致人類滅絕的不多的幾個原因之中的一個“。阿姆斯壯解釋說:“其他的風(fēng)險的發(fā)生,其實(shí)很難導(dǎo)致人類滅絕”,“比如發(fā)生一次核戰(zhàn)爭,這只會使殺死地球上很少比例的生物。就算輻射增強(qiáng),核冬天的時間延長,如果真的出現(xiàn)這種情況,甚至在更嚴(yán)酷更極端的情況下,地球上的生物可能有90%,95%甚至99%的生物被殺死,但是卻很難讓人類滅絕,同樣,流行病也是如此,甚至更致命的流行病也是如此。
“問題是,如果人工智能(AI)出現(xiàn)偏差,95%的人類會被殺死,然后剩下的5%不久也會被消滅。所以盡管有不確定性,但這種最可怕的風(fēng)險仍然可能出現(xiàn)。
當(dāng)一個人類與人工智能(AI)在酒吧相遇...
那么,我們在這里談?wù)摰氖鞘裁礃拥耐{?
“首先忘記終結(jié)者,”阿姆斯特朗說?!皺C(jī)器人基本上都有武器裝備,人類的進(jìn)化的天性會讓人類對此感到恐懼,但真正可怕的事是人工智能比我們聰明,比我們更善交際。當(dāng)一個人工智能機(jī)器人走進(jìn)一間酒,它手里抓著人類(男人或女人)走出來,那是一個什么恐怖場景?當(dāng)然他們也可能讓人類社會在政治,經(jīng)濟(jì),技術(shù)研究上變得更好“。
阿姆斯特朗認(rèn)為,人工智能(AI)的第一個影響是近乎全民失業(yè)?!叭绻斯ぶ悄埽ˋI)達(dá)到人類智力水平,你會要一個AI,復(fù)制它100次,訓(xùn)練它,讓它們有100種不同的職業(yè)技能,再重復(fù)這種方法100次,你就有了在100個行業(yè)10000個高技能的員工。培養(yǎng)它們也許只需要一周時間。然后你再復(fù)制更多的它們,你就可以擁有數(shù)百萬的員工......如果他們是真正的超人,你會得到超出了我剛才所描述的超級雇員?!?/p>
為什么AI想要?dú)⑺牢覀儯?/strong>
好吧,讓他們奪走我們的工作吧,那些更優(yōu)秀的AI想殺死我們似乎不可思議。谷歌工程總監(jiān),瑞·古威爾持對經(jīng)過有機(jī)和機(jī)械改造的生命形式持樂觀的態(tài)度,認(rèn)為這種改造可以成為一個更有效的方式,超級電腦天網(wǎng)沒有成為現(xiàn)實(shí),如果成為了現(xiàn)實(shí),它不一定要轉(zhuǎn)而反對它的創(chuàng)造者。但是阿姆斯特朗認(rèn)為我們應(yīng)該意識到風(fēng)險,并且應(yīng)準(zhǔn)備應(yīng)對將要到來的風(fēng)險。
“爭論的第一部分是他們可以變得非常聰明,因此很強(qiáng)大。爭論的第二部分是,要達(dá)到那種智能水平,無論它的構(gòu)造還是編程都是非常難設(shè)計的......這樣就有了一個安全邊界。
“一個專門查殺郵件病毒的程序,它的任務(wù)是努力從收到的電子郵件中把病毒過濾掉,程序要完成的這個最高任務(wù),它必須是聰明的”, 阿姆斯特朗繼續(xù)道 “如果制造出這樣的超級智能程序,那么它就會認(rèn)識到,如果殺死每個人,讓每一臺計算機(jī)關(guān)機(jī),這樣就沒有電子郵件被發(fā)送,那么郵件攜帶的病毒也就不可能被發(fā)送,這樣它的任務(wù)就能完美準(zhǔn)確地完成。
“這也許是有點(diǎn)愚蠢的例子,但它說明的一點(diǎn)是,對于要被賦于這么多的要求、任務(wù)的程序來說,“殺死所有的人類”是一個完美解決方案”
難道我們不能設(shè)計出安全模式嗎?一個具體的'不要?dú)⑷祟悺钡囊?guī)則?
“事實(shí)證明,這需要制定一個更復(fù)雜的規(guī)則,遠(yuǎn)遠(yuǎn)超過了我們最初的設(shè)定。假如你真的成功地編寫了一個程序,也就是設(shè)法定義了人類是什么,生命和死忘是什么,以及類似的東西是什么樣的,那設(shè)想一下,智能程序如何區(qū)別埋在墳?zāi)估锏娜祟惡驮诘叵?0公里深的掩體里正在輸液的人?稍有偏差就會導(dǎo)致災(zāi)難性的結(jié)果。
“所以,我們真正要做的是從本質(zhì)上定義人類是怎樣的生命形式,或者說哪些東西是不允許干涉的,哪些是允許干涉的,要做到這點(diǎn),把這些定義編碼置入人工智能里。
不確定不等同于“安全”
阿姆斯特朗描繪一幅人工智能接管了世界后的可怕畫面,但這是必然發(fā)生的嗎?這是不確定的,但我們不能就此放寬心。
“增加的不確定性是一個壞的跡象,而不是一個好的。當(dāng)全球變暖的人群提到‘但這些會導(dǎo)致什么樣的結(jié)果是不確定的’,人們往往會理解成‘因?yàn)椴淮_定性增加了,所以我們更安全了’,這是很可怕的,增加的不確定性其實(shí)總會帶來不好的結(jié)果。
“所以,如果人們說不確定因素增加,結(jié)果幾乎總是增加了尾部風(fēng)險的概率 – 如前面說的氣候變化的結(jié)果是不確定的,其實(shí)結(jié)果就氣候變得更糟糕。所以說:‘我們不太清楚人工智能(AI)會帶來什么’與 ‘我們知道,AI是安全的’是不一樣的,既使我們下意識地會認(rèn)它們是一樣的。 “
什么時候我們才可能看到真正的人工智能(AI)?
阿姆斯特朗說,預(yù)測何時我們能擁有超級智力的AI,是很難回答的問題。
在哪兒給人工智能編程?如果直接在計算機(jī)里編程,這里的不確定性非常高,因?yàn)槲覀儞碛杏嬎銠C(jī)的時間還很短,另一種方法是全腦仿真,有人把他們稱作'上傳',就是復(fù)制人腦的思想到計算機(jī)。這種方法也許更可靠,因?yàn)榕c人工智能相比,我們對自已要完成的任務(wù)很清晰,并有明確的路徑達(dá)到它,這種方法制造的人工智能再花一個世紀(jì)左右的時間應(yīng)該可以實(shí)現(xiàn)?!?span>
如果計算機(jī)僅僅只是象人類那樣思考,那可能就不會出現(xiàn)太糟糕的情況。
阿姆斯特朗說“(與)一個全腦仿真的AI就是一個自然人的心靈,這樣我們就不必?fù)?dān)心人的心靈會誤解”保持人類安全“這個問題,我們需要擔(dān)心的只是一個人出現(xiàn)暴力這種問題,這個問題也是我們過去經(jīng)驗(yàn)中經(jīng)常遇到過的,我們可以通過限制他的行為等方法,辦法很多,當(dāng)然這些方法可能有用也可能沒用,但是與處理完全外來的人工智能的思想來說,就不算什么難題?!?/p>
大衛(wèi)
真正的人工智能肯定比任何人類聰明,它們什么時候出現(xiàn)現(xiàn)在還不能預(yù)測。
“你可能認(rèn)為你聽到過比較靠譜的人(比如庫茲威爾,也可能別的人,他們有的支持AI,有的反對AI)預(yù)測人工智能出現(xiàn)的時間。但是我回顧了一下,雖然沒有理由懷疑這些專家都不知道自已在說什么,我要說的是真正的人工智能從來沒有存在過,因?yàn)樗麄儧]有存在的,他們也不可能反饋任何有價值的信息,所以我們也就沒有任何我們需要的有實(shí)際意義的理論。
“如果你預(yù)測他們會在下個世紀(jì)大量出現(xiàn),那么接下來你會看到,其實(shí)是沒有清晰的發(fā)展模式來支持這個說法。所以肯定的是有強(qiáng)有力的證據(jù)表明,沒有人知道人工智能什么時候出現(xiàn),是否會出現(xiàn)。
“這種不確定性是雙向的,關(guān)于人工智能不會出現(xiàn)以及人工智能不會很快出現(xiàn)的論據(jù)不充分。因此,正如人們也許會猜測AI可能在一個世紀(jì)的時間內(nèi)出現(xiàn),同時也可以認(rèn)為它在五年內(nèi)出現(xiàn)。
“假設(shè)有人想出了一個完美算法,輸入大量數(shù)據(jù),得出結(jié)論,AI能夠推廣,把這個結(jié)論當(dāng)成證據(jù),但是AI不會很快出現(xiàn)的可能性更大。
技術(shù)的哲學(xué)
當(dāng)我與阿姆斯特朗交談后,我發(fā)現(xiàn)目前這一代的哲學(xué)家,往往被其他學(xué)術(shù)圈所忽略,他們扮演的角色就是指導(dǎo)人類如何與日益發(fā)展的“智力”技術(shù)術(shù)互動。
阿姆斯特朗把這個過程比作電腦編程?!拔覀冊囍阉械囊磺卸挤纸獬勺詈唵蔚男g(shù)語,就像你把它編入一個AI或進(jìn)入任何一臺計算機(jī)一樣。編程經(jīng)驗(yàn)是很有用的。幸運(yùn)的是,哲學(xué)家,特別是分析哲學(xué)家,已經(jīng)在做這件事。你只需要稍稍再增加點(diǎn)程序。所以,看看你有什么,你如何落實(shí)它,你如何學(xué)習(xí)這些理論,你怎么知道世界上的一切,如何清楚地定義它們變得非常有用也是必須的。
AI對你的工作的威脅
阿姆斯特朗面臨的最大的問題,人們根本不相信人工智能會對人類的工作產(chǎn)生毀滅性的威脅,這個問題其實(shí)是很重要的。
“人類不善于處理極端風(fēng)險,”他說。“一般人和決策者, 還不能共同處理影響力大、概率卻小的事件。。。人類深具探索性,也有心理地圖把滅絕這類事件歸入一個特殊的類別 - 也許它們是”探索者和宗教或瘋狂的人“,或者類似的東西。”
阿姆斯特朗的工作正在取得進(jìn)展,關(guān)于人工智能威脅我們的工作這個提法逐漸讓人們接受, “,這是一個非常合理的恐懼,與中級風(fēng)險與極端風(fēng)險相比,這個問題似乎得到了人們的更多的重視“,他說。
“人工智能可以取代幾乎任何人,包括那些過去不會被替換或者外包的職業(yè)。因此,即使我們不看危險的方面,這個問題也值得擔(dān)心。我個人覺得,如果我說人們都失去他們的工作,比我說人類會滅絕更能引起人們的關(guān)注。這可能是前一個問題對所有人來說更實(shí)際?!?/p>
我覺得可以結(jié)束談?wù)撨@個哲學(xué)問題了。阿姆斯特朗的工作可以由AI來代替嗎?或者哲學(xué)是人類固有追求?
“有趣的是為什么哲學(xué)家不會被AI取代,哲學(xué)家成為人工智能比成為人類更合適,因?yàn)檎軐W(xué)是人的職業(yè),”他說。
“如果人工智能善于思考,它會發(fā)展得更好。我們會更愿意把更好的哲學(xué)思想置入人工智能,當(dāng)AI開始自我學(xué)習(xí)時,就不會朝危險的或與人類期望相反的領(lǐng)域拓展。
“這并不意味著,在后人工智能的世界,就不會有人類哲學(xué)家研究人類哲學(xué),我們希望人類做他們認(rèn)為有價值的和有用的事。這是非常合理的,在后人工智能社會存在哲學(xué)家,另外的人們做他們覺得是值得的事。如果您想做浪漫一點(diǎn)的工作,那可能是傳統(tǒng)的那種農(nóng)民。
“我確實(shí)不知道你將如何組織一個社會,但你必須組織它使人們會發(fā)現(xiàn)一些有用的,富有成效的事,其中可能包括哲學(xué)。
“‘人工智能可以做事可以遠(yuǎn)超人類水平嗎?“,可能是的,但最有可能的,我們不能輕易區(qū)別人類哲學(xué)家和人工智能。”
從終結(jié)者系列電影到成為現(xiàn)實(shí),還有很長的路要走,在未來戰(zhàn)場上,作為一種威懾,擁有殺人能力的自主機(jī)器人已經(jīng)受到重視。
AI周圍的不確定性就是為什么我們不應(yīng)該忽略斯圖爾特·阿姆斯特朗這樣的專家給我們的警告。當(dāng)機(jī)器在快速發(fā)展,我們需要作好準(zhǔn)備。
聯(lián)系客服