本文為論文《The Singularity May Never Be Near》譯稿,作者:Toby Walsh,機器之心編譯出品,編譯:李九喻、孟婷、柒柒。
如今,對人工智能(AI)感到悲觀或樂觀的都大有人在。樂觀者正在向人工智能領(lǐng)域投資數(shù)百萬美元甚至數(shù)十億美元,而悲觀者則預(yù)測人工智能將終結(jié)很多事:工作、社會福利甚至人類。無論是樂觀主義者還是悲觀主義者都被所謂技術(shù)奇點(technological ingularity)的概念吸引。
技術(shù)奇點是一個機器智能失控的時間點,在它之后一個全新的、更加智慧的「物種」將開始居住在地球上。如果樂觀主義者是正確的,那么這將是一個從根本上改變?nèi)私?jīng)濟和社會的時刻。如果悲觀主義者是正確的,那么這將同樣是一個從根本上改變?nèi)祟惤?jīng)濟和社會的時刻。因此,我們有必要花些時間決定這些看法是否正確。
技術(shù)奇點的歷史
許多不同的思想家都構(gòu)思過關(guān)于技術(shù)奇點的理念。在約翰·馮·諾伊曼(譯者注: John von Neumann, 20世紀最重要的數(shù)學(xué)家之一,在現(xiàn)代計算機、博弈論等領(lǐng)域均有建樹)1957年去世時,斯塔尼斯拉夫·烏拉姆(譯者注: Stanislaw Ulam,波蘭數(shù)學(xué)家)寫道:
「我與約翰·馮·諾伊曼討論過在技術(shù)不斷加速發(fā)展、人類生活模式的改變下,我們看上去正在接近物種史上某個重要的奇點,在它之后已知的生活將無法延續(xù)。」
在1965年,I.J. 古德(譯者注: I.J. Good,英裔數(shù)學(xué)家、密碼學(xué)家)對這個現(xiàn)象提出了更具體的預(yù)測,他用「智能爆炸」(Intelligence Explosion)取代了「奇點」(Singularity)的概念:
「讓我們把超智能機器定義成為一臺能夠遠遠超過任何人類智力活動的機器。 因為設(shè)計機器本身也算是智力活動,所以超智能機器可以設(shè)計出更好的機器;毫無疑問,這將會帶來智力的爆炸式增長,而人類的智力將遠遠落后。以此類推,超智能機器將會是人類最后一個發(fā)明?!?/p>
許多人把 「技術(shù)奇點」歸功于計算機科學(xué)家??苹眯≌f家弗諾·文奇(Vernor Vinge)更是預(yù)言:
「在三十年內(nèi),我們將創(chuàng)造出實現(xiàn)超人智慧的技術(shù)。不久后,人類的時代將結(jié)束。」
近來,技術(shù)奇點的概念又得到了包括雷·庫茲韋爾(譯者注: Ray Kurzweil ,發(fā)明家、企業(yè)家、學(xué)者、《奇點臨近》等暢銷書作者)在內(nèi)許多人的推廣。根據(jù)目前的趨勢,庫茲韋爾預(yù)計技術(shù)奇點會發(fā)生在2045年左右。就這篇文章的定義而言,我假設(shè)技術(shù)奇點是一個「當(dāng)我們創(chuàng)造出擁有足夠智慧、能通過重新設(shè)計自己來改進智力的機器」的時間點,并且在這個點上我們將見證智力以指數(shù)級增長,并且迅速超越人類。
我將用兩個數(shù)學(xué)論證來為以上觀點辯護。其中一個論證是:技術(shù)奇點不是數(shù)學(xué)奇點。在函數(shù)1/(1-t)中,數(shù)學(xué)奇點是t=1。該函數(shù)演示了雙曲增長。當(dāng)t接近1,t的導(dǎo)數(shù)趨于正無窮并且無法被定義。然而,許多技術(shù)奇點的擁躉只支持指數(shù)增長的說法。例如,函數(shù)2^t呈指數(shù)增長。這樣的指數(shù)函數(shù)在接近正無窮時更慢,并且有一個可以被定義的有限導(dǎo)數(shù)。
第二個論證是:智力的指數(shù)增長完全取決于測量智力的數(shù)值范圍。如果我們以對數(shù)分度向量(logspace)測量智力,指數(shù)增長僅僅是線性的。在這里,我暫時不解釋測量機器或者人類智力的具體定義或方法。我只假設(shè)有一個可以被測量、比較的特質(zhì)叫做智力,并且當(dāng)智力在適當(dāng)、合理的數(shù)值范圍內(nèi)呈指數(shù)增長時,我們將迎來技術(shù)奇點。目前,技術(shù)奇點的可能性已經(jīng)迫使幾名評論家發(fā)出關(guān)于人工智能對人類影響的悲觀預(yù)言。例如,在2014年12月時,史蒂芬霍金對BBC電視臺說:
「人工智能的全面發(fā)展可能意味著人類的終結(jié)……機器將獲得自主權(quán),并且以前所未有的速度重新設(shè)計自己。被緩慢生物進化限制的人類將無法競爭并且最終被取代?!?/p>
其他的知名人物,包括比爾·蓋茨、伊隆·馬斯克和史蒂夫·沃茲尼亞克也隨后發(fā)表了類似的警告。尼克·博斯特羅姆(譯者注: Nick Bostrom ,牛津大學(xué)人類未來研究院院長、哲學(xué)教授、著名人工智能學(xué)者)也做出了對技術(shù)奇點的預(yù)言,并且認為這個現(xiàn)象將對人類的生存造成威脅。然而這篇文章與以上的觀點相反,我將探討的觀點是:技術(shù)奇點或許永遠不會臨近。
反對技術(shù)奇點的論點
對技術(shù)奇點的爭論多數(shù)發(fā)生在主流人工智能行業(yè)以外。在某種程度上,這個概念的許多擁躉都不是真正的從業(yè)者。在主流文化中,技術(shù)奇點也和一些例如壽命延長和后人類主義等挑戰(zhàn)現(xiàn)狀的想法關(guān)系密切。這種聯(lián)系干擾了我們探討真正重要的基礎(chǔ)問題:人類真的可以開發(fā)出能夠成倍提高自己智力并且遠遠超出人類的機器嗎?雖然它看上去并不是一個特別大膽的想法。
計算機領(lǐng)域已經(jīng)在指數(shù)增長的同時不斷壯大。摩爾定律(Moore’s Law)以合理的精準預(yù)測告訴我們,晶體管上集成電路的數(shù)量(指每塊芯片的儲存量)將在1975年之后每兩年內(nèi)翻倍。庫梅定律(Koomey’s Law)也已預(yù)測,單個能量焦耳所支持的計算次數(shù)將在1950年后的每19個月內(nèi)翻倍。以此類推,為什么不能假設(shè)人工智能也會在某個時間段內(nèi)實現(xiàn)指數(shù)增長呢?
針對技術(shù)奇點實現(xiàn)的可能性,以上的說法是一些有力的論據(jù)。準確地說,我并不是在預(yù)估人工智能無法擁有超出人類的智能。與許多在人工智能行業(yè)工作的同事一樣,我預(yù)測人類離這個階段還有30到40年的時間。不過與一些人的觀點相反,我認為未來將不會出現(xiàn)失控、呈指數(shù)增長的情形。我將在接下來的文章里提供多個關(guān)于不可能有技術(shù)奇點出現(xiàn)的支持論點。
以下的討論不包括所有技術(shù)奇點的反對論點。舉例來說,我們也可以假設(shè)人工智能創(chuàng)造出了自己的人工智能。因此,阿蘭·圖靈(Alan Turing)在其影響深遠的Mind論文( Turing 1963)中提出了針對人工智能的九種通俗反對意見,例如機器不能擁有意識,或者不具有創(chuàng)造性。在這里,我將集中精力討論人工智能在智力上失控增長的可能性。
論點一:快速思維的狗 (Fast Thinking Dog)
其中一個由技術(shù)奇點支持者提出的先鋒觀點是:硅與人類大腦濕件(wetware)相比有重要的速度優(yōu)勢,并且根據(jù)摩爾定律這一優(yōu)勢每隔兩年都會翻倍。不過,速度提高不代表智力增長。在這個問題上,弗諾·文奇認為一條快速思維的狗仍然不可能懂得下棋。史蒂芬·平克(Steven Pinker)意味深長地表示:
「我們沒有任何理由相信技術(shù)奇點。人可以在自己腦海中想象未來,但不能證明它是否具有實現(xiàn)的可能性。在我的孩童時代,人們想象過的半球形城市、噴氣交通運輸工具、水下城市、一英里高的建筑、核動力汽車,以及很多未來式的幻想在今天從來沒有得以實現(xiàn)。最終,單純的想象力無法像魔法一樣奇跡般地解決所有問題?!?/p>
智力不僅是比別人對一個問題思考更快或是更久。當(dāng)然,摩爾定律對人工智能的發(fā)展有幫助?,F(xiàn)在計算機擁有更多可供學(xué)習(xí)的數(shù)據(jù)庫。速度更快的計算機肯定會幫助我們開發(fā)更好的人工智能。但是,至少對于人類來說,對智力的評估取決于許多其他的事情,其中包括日經(jīng)月久的經(jīng)驗和訓(xùn)練。我不確定人類是否可以利用硅,走上提高智力的捷徑。
論點二:人類中心主義 (Anthropocentric)
在許多對技術(shù)奇點的描述中,人類智力被假設(shè)成為一個需要跨越或顛覆的里程碑。例如,尼克·博斯倫特寫道:
「擁有人類智力水平的人工智能的問世將會迅速帶來通向高于人類水平人工智能的發(fā)展……與此同時,機器與人類在智力上的匹配將是暫時的。此后不久,人類將無法與人工智力競爭。」
人類智力范圍是從蟑螂到老鼠再到人類的分布廣泛的范圍。事實上,與其說智力是一個點,不如說它是一系列概率的分布。我們并不確定人類將在具體哪一個點上被人工智能失控的智力增長超越:這個點具體是指人類的平均智力?還是人類史上最聰明的人?
科學(xué)史的教訓(xùn)告訴我們,人類遠沒有自己想象的那么特殊。哥白尼告訴我們,宇宙并不繞地球轉(zhuǎn)。達爾文告訴我們,我們與猿類沒有本質(zhì)區(qū)別。人工智能可能會告訴我們,人類的智力也并不特別。我們沒有理由因此假定,人類智力是個一旦通過,智力將快速增長的特殊臨界點。當(dāng)然,這并不排除智力轉(zhuǎn)捩點本身存在的可能性。
技術(shù)奇點的支持者提供的說法之一是,我們是唯一能夠通過創(chuàng)造來拓展自己智力的物種,因此人類智力是一個特殊的臨界點。我們是地球上唯一擁有足夠智力設(shè)計新智能的物種,并且這些被設(shè)計出來的新智能不受進程緩慢的繁衍與進化限制。然而,這一類說法假定人類的智力可以設(shè)計出一個智力足以跨越技術(shù)奇點的人工智能。換句話說,它在我們決定是否有技術(shù)奇點之前,就已經(jīng)下定它確切存在的結(jié)論。人類可能,也同樣可能不會有足夠的智力設(shè)計出這樣的人工智能。我們并不是被注定要創(chuàng)造出這樣的東西。再者說,即使我們有足夠的智力設(shè)計出了能夠超越人類的人工智能,這樣的人工智能也不一定能夠帶來技術(shù)奇點。
論點三:元智力 (Meta-Intelligence)
在我看來,反對技術(shù)奇點的其中一個強有力論點是,技術(shù)奇點混淆了完成工作的智力和提高完成工作的能力之間的區(qū)別。在對技術(shù)奇點的概念進行詳細分析后,大衛(wèi)·查莫斯(譯者注: David Chalmers,澳大利亞裔哲學(xué)家,認知科學(xué)家)寫道:
「如果我們通過機器學(xué)習(xí)創(chuàng)造一個AI,不久之后我們將能夠改善學(xué)習(xí)的算法并且延長學(xué)習(xí)的過程,創(chuàng)造出接下來的AI+。」
在以上的論述中,AI是人類智力水平的系統(tǒng),而AI+是比一般人類更聰明的系統(tǒng)。不過,為什么查莫斯認為我們可以在不久之后提高學(xué)習(xí)的算法?歷來機器學(xué)習(xí)在算法方面的進展既不迅速,也不容易。機器學(xué)習(xí)的確有可能成為未來任何人類智力級別的人工智能系統(tǒng)的重要部分,因為除此之外,利用人工編碼知識和專長是很痛苦的過程。假設(shè),一個人工智能系統(tǒng)選擇采用機器學(xué)習(xí)來提高自己理解文本,完成數(shù)學(xué)證明的能力。該人工智能的系統(tǒng)沒有理由能夠改善機器學(xué)習(xí)本身自帶的算法。事實上,機器學(xué)習(xí)的算法通常在某一項工作上已經(jīng)達到極限,不論是工程還是參數(shù)的調(diào)整,都無法提高其性能。
目前,我們看到使用深度學(xué)習(xí)的人工智能令人印象深刻的進度。這極大地提高了語音識別、計算機視覺、自然語言處理及許多其他領(lǐng)域的發(fā)展。這些進度通常歸功于使用更多數(shù)據(jù)以及更深層次的神經(jīng)網(wǎng)絡(luò):
燕樂存(譯者注: Yann Lecun,紐約大學(xué)計算神經(jīng)科學(xué)家)表示: 「在此之前,神經(jīng)網(wǎng)絡(luò)并沒有打破識別連續(xù)語音的記錄;因為它們的大小有限。」
當(dāng)然,更多的數(shù)據(jù)和更大的神經(jīng)網(wǎng)絡(luò)意味著我們需要更強的機器處理能力。其結(jié)果是,GPU現(xiàn)在經(jīng)常被用來提供處理能力。然而,學(xué)會更好地識別語音或者物品并沒有幫助深度學(xué)習(xí)進步。深度學(xué)習(xí)并沒有自我改善,對深度學(xué)習(xí)在算法上的任何改善都要歸功于人類在設(shè)計上的不懈努力。
我們也可以從另一方面用我們所了解到的有關(guān)智能系統(tǒng)的最好例子來例證這一論點??纯次覀冏约?。我們只使用了我們自己大腦驚人能力中的一小部分,而且我們正努力地想要改變現(xiàn)狀。對我們來說,學(xué)習(xí)如何更好地完成某個特定任務(wù)很簡單,但學(xué)習(xí)如何更高效地學(xué)習(xí)還需要下點功夫。舉例來說,如果我們除去對智商固有的正常定義,我們可以察覺到智商在上個世紀內(nèi)有增長,但增長速度緩慢(弗林效應(yīng)「Flynn Effect」)。在今天,提高智商的過程和一個世紀以前一樣痛苦并且緩慢?;蛟S,電子大腦也很難快速提高自己的性能,并且永遠無法超越自身的基本功能?
論點四:收益遞減 (Diminishing Return)
技術(shù)奇點通常假設(shè)智力的改進是一個相對恒定的乘數(shù),每一代的分數(shù)都比上一代更高。然而到目前為止,大部分人工智能系統(tǒng)的性能一直在經(jīng)歷收益遞減。在不同研究的初期,研究人員通常獲得許多成果,但在這之后則遇到一系列難以改進的困難。這個過程解釋了許多早期人工智能的研究人員對行業(yè)發(fā)展過于樂觀的看法。人工智能系統(tǒng)也許可以無限制地完善自己,但對智力的總體改進很可能存在上限。舉例來說,如果每一代人工智能比上一代增強半倍,那么系統(tǒng)永遠不會達到2倍的整體智力。
收益遞減不僅是由于改進人工智能算法的困難度,也是由于計算機科學(xué)快速增長的困難度。微軟的聯(lián)合創(chuàng)始人保羅·艾倫稱這一現(xiàn)象為 「復(fù)雜性剎車」(Complexity Brake)。
「我們把這個問題叫做復(fù)雜性剎車。伴隨人類對自然系統(tǒng)理解的不斷加深,我們通常會發(fā)現(xiàn),我們需要更多并且更專業(yè)的知識來描述它們,我們不得不用越來越復(fù)雜的方式來持續(xù)擴展我們的科學(xué)理論… 我們相信,對自然世界認知上的理解正在被復(fù)雜性剎車放慢?!?/p>
——Allen和Greaves,2011。
即使人類看到人工智能系統(tǒng)持續(xù)、甚至呈指數(shù)級的改進,這些或許都無法提高機器的性能。智力提升所需要解決的問題本身的難度增長速度,甚至比智力提升的速度還要快。很多人表示,現(xiàn)階段理論物理學(xué)的探索似乎也遇到了同樣的復(fù)雜性剎車。
論點五:智慧的極限 (Limits of Intelligence)
宇宙中存在很多基本的限制,其中一些是物理限制。例如,我們無法加速超過光速;我們無法同時知道位置和動量的精確數(shù)值;我們無法知道原子放射性衰變具體發(fā)生的時間。我們創(chuàng)造出來的思維機器也受這些物理定律的限制。當(dāng)然,如果機器在本質(zhì)上是電子或者甚至是量子,這些限制很可能比人類大腦生物和化學(xué)的限制還要大得多。
更多可觀察的經(jīng)驗法則也在復(fù)雜的系統(tǒng)中不斷涌現(xiàn)。例如,鄧巴數(shù)(Dunbar’s Number)是靈長類動物腦容量和社會平均大小之間所觀察到的聯(lián)系數(shù)值。該數(shù)值把人類社會團體中關(guān)系穩(wěn)定的人數(shù)限制在100到250人之間。智力是一個復(fù)雜的現(xiàn)象,并且也會有類似的限制出現(xiàn)在這種復(fù)雜度中。機器智力的改善,無論是失控還是緩慢地增長,都可能碰觸到這種限制。當(dāng)然,我們沒有理由假設(shè)人類智力目前已經(jīng)達到、或者接近這個上限。同樣來說,我們也沒有理由認為這個上限遠遠超過了人類的智力。
論點六:計算復(fù)雜性 (Computational Complexity)
假設(shè)我們堅持使用遵守傳統(tǒng)計算模型的電腦開發(fā)人工智能系統(tǒng)。那么,指數(shù)級增長也無法與計算的復(fù)雜度匹敵。舉例來說,計算機性能上的指數(shù)級增長不足以運行超級指數(shù)算法,而且沒有任何性能上的增長可以解決無法解決的問題。計算的復(fù)雜性也許正是我們前面所討論到的基本限制之一。因此,除非我們使用的機器能夠超越傳統(tǒng)的計算模型,否則我們很可能會碰到類似于計算的復(fù)雜性從根本上限制了計算機性能的問題。
當(dāng)然,很多計算的復(fù)雜度問題只是最壞的情況,大部分的人工智能都使用啟發(fā)式學(xué)習(xí)在實踐中解決計算上難以處理的問題。不過,這些啟發(fā)式學(xué)習(xí)在質(zhì)量上有根本的限制。有一些級別的問題即使超人工智能(super-human intelligence)也不能很好的解決,哪怕只是大致解決。
結(jié)論
在以上的文章中,我論述了關(guān)于人類也許永遠無法見證技術(shù)奇點的許多原因。然而,即使沒有技術(shù)奇點,我們也許仍然可以最終擁有展現(xiàn)出超出人類智力水平的機器。不過實現(xiàn)它需要很多人非常痛苦地編碼。如果是這樣的話,人工智能對經(jīng)濟和社會的影響,要比對技術(shù)奇點持有悲觀或樂觀態(tài)度的人所預(yù)測的結(jié)果平淡得多。
然而,我們應(yīng)該就人工智能對社會的影響開始做準備。就算沒有技術(shù)奇點,人工智能依舊會大面積影響工作的性質(zhì)。舉第二個例子:即使智力有限的人工智能依然可以對戰(zhàn)爭的性質(zhì)產(chǎn)生很大的影響?,F(xiàn)在,我們需要開始為這樣的未來做計劃。
參考文獻:
[Allen and Greaves 2011] Allen, P., and Greaves, M. 2011. The singularity isn’t near. MIT Technology Review 7–65.
[Bostrom 2002] Bostrom, N. 2002. When machines outsmart humans. Futures 35(7):759–764.
[Bostrom 2014] Bostrom, N. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford, UK: Oxford Uniiversity Press.
[Chalmers 2010] Chalmers, D. 2010. The singularity: A philosophical analysis. Journal of Consciousness Studies 17(9-10):7–65.
[Edwards 2015] Edwards, C. 2015. Growing pains for deep learning. Commun. ACM 58(7):14–16. [Good 1965] Good, I. 1965. Speculations concerning the first ultraintelligent machine. Advances in Computers 6:31– 88.
[Kurzweil 2006] Kurzweil, R. 2006. The Singularity Is Near: When Humans Transcend Biology. Penguin (NonClassics).
[Pinker 2008] Pinker, S. 2008. Tech luminaries address singularity. IEEE Spectrum.
[Turing 1963] Turing, A. 1963. Computing machinery and intelligence. In Computers and Thought. McGraw-Hill Book Company.
[Ulam 1958] Ulam, S. 1958. Tribute to John von Neumann. Bulletin of the American Mathematical Society 64(3).
[Vinge 1993] Vinge, V. 1993. The coming technological singularity: How to survive in the post-human era. In Rheingold, H., ed., Whole Earth Review.
聯(lián)系客服