人工智能的春天和寒冬交替輪回,本文脫離枯燥的技術(shù)語(yǔ)言,從感性的角度為你揭示AI興衰起伏背后的根本原因。
論文地址:
https://arxiv.org/pdf/2104.12871.pdf
關(guān)于作者:梅拉妮·米歇爾,圣塔菲研究所客座教授,暢銷(xiāo)書(shū)《復(fù)雜》作者,《集異璧》作者侯世達(dá)的學(xué)生。
回首望來(lái),自從20世紀(jì)50年代的人工智能之春以來(lái),人工智能這個(gè)燙手的山芋在人們的嫉妒希冀、幾度失望中經(jīng)歷著一次次的起伏波折,無(wú)數(shù)次大公司和科研界的大規(guī)模投資和大規(guī)模撤資見(jiàn)證著這個(gè)頗受爭(zhēng)議的領(lǐng)域在起起伏伏中掙扎與蟄伏。
時(shí)至今日,雖然我們看到以深度學(xué)習(xí)為首的人工智能領(lǐng)域在諸多領(lǐng)域中大放異彩。但在工業(yè)界和學(xué)術(shù)界中,諸如自動(dòng)駕駛、 家政機(jī)器人和對(duì)話(huà)機(jī)器人等等這類(lèi)需要長(zhǎng)期依賴(lài)和學(xué)習(xí)的技術(shù)的發(fā)展,卻比人們預(yù)期得要緩慢和艱難得多。
這些領(lǐng)域的困境,以及人工智能幾度興衰的根本原因,其實(shí)是人類(lèi)對(duì)于“智能”的定義偏差和復(fù)雜性理解上的限制。因此在本文中,我介紹了人工智能研究人員的四個(gè)常見(jiàn)的錯(cuò)誤認(rèn)知,這些謬誤可能導(dǎo)致我們對(duì)于該領(lǐng)域的過(guò)度自信和錯(cuò)誤預(yù)測(cè)。最終,我還討論了這些謬誤所帶來(lái)的一些開(kāi)放性問(wèn)題,包括如何給機(jī)器和算法注入人類(lèi)常識(shí)之類(lèi)的老生常談的問(wèn)題。
人工智能的興衰沉浮
自從人工智能領(lǐng)域誕生之初,人們就對(duì)它有著盲目的自信和過(guò)度的信任。比如在1958年的時(shí)候,紐約時(shí)報(bào)的一篇報(bào)道中就介紹了美國(guó)海軍對(duì)弗蘭克?羅森布拉特的“感知器”模型,也就是深度神經(jīng)網(wǎng)絡(luò)的前身的評(píng)價(jià),他們說(shuō):海軍今天展示了一臺(tái)電子計(jì)算機(jī)的原型機(jī),它能夠走路、說(shuō)話(huà)、觀(guān)察、書(shū)寫(xiě)和復(fù)制自己,并且能夠意識(shí)到自己的存在[9,10]。
緊接著,在官方這樣高調(diào)的宣傳之后,人工智能的先驅(qū)們便心領(lǐng)神會(huì)地對(duì)人工智能這個(gè)領(lǐng)域開(kāi)啟了無(wú)限的吹捧、憧憬和附和。在1960年,赫伯特?西蒙宣布,“機(jī)器將能夠在20年內(nèi)完成一 個(gè)人可以做的任何的工作!'[1]。緊接著的第二 年,Claude Shannon也對(duì)這一說(shuō)法進(jìn)行了大膽的預(yù)測(cè):“我十分自信的預(yù)測(cè),在未來(lái)的10到15年間,科學(xué)家的實(shí)驗(yàn)室里會(huì)出現(xiàn)一些難以置信的成果,它們就跟科幻小說(shuō)中的機(jī)器人一樣神通廣大。'[11]。同樣的,在幾年之后, Marvin Minsky預(yù)測(cè)到:“在一代人的時(shí)間之內(nèi),人工智能的問(wèn)題將得到實(shí)質(zhì)性的解決!'[12]
20世紀(jì)60年代和70年代初樂(lè)觀(guān)的人工智能之春,反映在這些預(yù)測(cè)中。但是很快,這些虛假的繁榮就表現(xiàn)出了各種弊端,進(jìn)而導(dǎo)致了人工智能的第一個(gè)寒冬。明斯基和帕普特1969年的《感知器》一書(shū)[13]表示,羅森布拉特的感知器可解決的問(wèn)題種類(lèi)非常有限。
1973年,英國(guó)的 Lighthill報(bào)告[14]和美國(guó)國(guó)防部的“美國(guó)研究小組分別受到各自政府的委托,來(lái)評(píng)估人工智能在不久的將來(lái)的前景。他們都對(duì)人工智能的未來(lái)表示消極的情緒。這直接導(dǎo)致了兩國(guó)相關(guān)投入的大幅減少,人們對(duì)人工智能的熱情進(jìn)而下降。在這些高調(diào)的言論之后,是當(dāng)時(shí)人工智能領(lǐng)域巨大的熱度、聲譽(yù)和背后像泡沫一樣脆弱的事實(shí)。因此,在20世紀(jì)60年代和70年代初過(guò)度樂(lè) 觀(guān)和短暫的“人工智能之春”之后,該領(lǐng)域迎來(lái)了第一波寒潮,史稱(chēng)“人工智能的冬天”。
但是沒(méi)經(jīng)過(guò)多久,在1980年初,人工智能領(lǐng)域便再次呈現(xiàn)了反彈之勢(shì),這得益于當(dāng)時(shí)的幾項(xiàng)成功的應(yīng)用。在工業(yè)領(lǐng)域中,專(zhuān)家系統(tǒng)大行其道 [15];同時(shí)日本對(duì)其“第五代”項(xiàng)目進(jìn)行了巨額的投資 [16],而該項(xiàng)目旨在將雄心勃勃的人工智能算 法作為其新一代計(jì)算機(jī)的核心;此外作為回應(yīng),美國(guó)提出了“戰(zhàn)略計(jì)算倡議”[17],該倡議為人工智能的基礎(chǔ)進(jìn)展提供了大量的資金;此外,神經(jīng)網(wǎng)絡(luò)領(lǐng)域在此時(shí)也有著一系列新的成果出現(xiàn)[18,19]。這些舉措都為該領(lǐng)域帶來(lái)了一絲新的振興的曙光。
但是好景不長(zhǎng),到了1980年代后期,這些樂(lè)觀(guān)的希望都破滅了,這些技術(shù)也都沒(méi)有達(dá)到人們希望的足夠智能的樣子。其中,專(zhuān)家系統(tǒng)需要依賴(lài)人類(lèi)來(lái)創(chuàng)建規(guī)則,手工地從領(lǐng)域?qū)<业牟僮骱鸵谎砸恍兄锌偨Y(jié)歸納出各種規(guī)則。但是這樣繁瑣復(fù)雜的操作卻只能換來(lái)一個(gè)脆弱和殘缺的系統(tǒng),它沒(méi)有任何的延伸性。在面臨新的情況的時(shí)候,它往往無(wú)法正確地概括和適應(yīng)。
從本質(zhì)上來(lái)說(shuō),編寫(xiě)規(guī)則的領(lǐng)域?qū)<覍?shí)際上依賴(lài)的是他的經(jīng)驗(yàn)和自我潛意識(shí)中的歸納總結(jié)能力,以及對(duì)相關(guān)問(wèn)題的泛化能力,我們通常稱(chēng)之為“常識(shí)”,但是潛意識(shí)的常識(shí)卻是我們無(wú)法教會(huì)算法和代碼的內(nèi)容。此外,在第五代項(xiàng)目和美國(guó)戰(zhàn)略計(jì)劃倡議下開(kāi)發(fā)的人工智能方法也遇到了類(lèi)似的通用性問(wèn)題。在20世紀(jì)80年代和90年代時(shí),神經(jīng)網(wǎng)絡(luò)方法對(duì)于簡(jiǎn)單的問(wèn)題能夠工作的很好,但是當(dāng)其面對(duì)復(fù)雜問(wèn)題的時(shí)候卻往往無(wú)能為力。
事實(shí)上,20世紀(jì)80年代末標(biāo)志著人工智能的一輪新的寒冬的來(lái)臨,彼時(shí),人工智能的聲譽(yù)受到了極大的影響。當(dāng)我在1990年獲得博士學(xué)位時(shí),業(yè)內(nèi)人士悄悄地告訴我說(shuō),盡量別再簡(jiǎn)歷中用到“人工智能”這個(gè)略帶貶義的詞匯。
在1956年Dartmouth夏季研討會(huì)50周年紀(jì)念活動(dòng)上,人工智能先驅(qū)約翰?麥卡錫(John McCarthy)簡(jiǎn)潔地解釋了這個(gè)問(wèn)題:“人工智能比我們想象的要難”[20]。
時(shí)間來(lái)到20世紀(jì)90年代和21世紀(jì),機(jī)器學(xué)習(xí)的發(fā)展變得十分迅猛:人們開(kāi)始以數(shù)據(jù)為驅(qū)動(dòng)提出預(yù)測(cè)模型算法。本質(zhì)上來(lái)說(shuō),這種方法的理論基礎(chǔ)是統(tǒng)計(jì)學(xué),而不是神經(jīng)科學(xué)或心理學(xué)。它們旨在執(zhí)行特定的任務(wù),而不是賦予機(jī)器通用的智能。而為了能夠和早已臭名昭著的老一代人工智能方法劃清界限,當(dāng)時(shí)的機(jī)器學(xué)習(xí)從業(yè)者通常會(huì)將他們的學(xué)科冠以機(jī)器學(xué)習(xí)的名號(hào),以免被拉下水。
然而在2010年左右,深度學(xué)習(xí),這種受到大腦神經(jīng)結(jié)構(gòu)啟發(fā)的多層神經(jīng)網(wǎng)絡(luò)模型開(kāi)始大行其道。它從大量的數(shù)據(jù)中抽絲剝繭,表現(xiàn)出了驚人的總結(jié)和歸納能力,這使其絕地反殺,一躍上升到了機(jī)器學(xué)習(xí)一哥的位置。其實(shí),深度神經(jīng)網(wǎng)絡(luò)從20世紀(jì)70年代就已經(jīng)存在了,但直到最近,得益于互聯(lián)網(wǎng)上得來(lái)的巨大數(shù)據(jù)集、 快速并行計(jì)算芯片和訓(xùn)練方法等方面的創(chuàng)新, 深度學(xué)習(xí)便擴(kuò)展到了大量以前未解決的領(lǐng)域之中,并且獲得了不俗的成績(jī)。深度神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)了我們?cè)谶^(guò)去十年中幾乎所有的主要進(jìn)步, 包括語(yǔ)音識(shí)別、機(jī)器翻譯、聊天機(jī)器人、圖像 識(shí)別、游戲和蛋白質(zhì)結(jié)構(gòu)分析等等。
仿佛一夜之間,“人工智能”這個(gè)詞匯開(kāi)始遍布街頭巷尾,人們?cè)俅螌?duì)這些被冠以“一般”、“真 實(shí)”和“人類(lèi)層面”等人工智能詞匯出現(xiàn)了新一輪的樂(lè)觀(guān)的情緒。
在一項(xiàng)2016年和2018年的面向人工智能研究人員的調(diào)查中,數(shù)據(jù)的中位數(shù)顯示,在被調(diào)查人員中,他們認(rèn)為在2040-2060年間,人工智能算法能夠達(dá)到人類(lèi)智力水平的可能性為50%。盡管在早期和后期的估計(jì)中,結(jié)果存在很大的差異[21, 22],但從這個(gè)整體結(jié)果上可見(jiàn)一斑。
因?yàn)榧词故且恍┳钪娜斯ぶ悄軐?zhuān)家和企業(yè)家,他們的估計(jì)和統(tǒng)計(jì)也是十分盲目樂(lè)觀(guān)的。舉個(gè)例子,一本廣泛使用的人工智能教科書(shū)的作者Stuart Russell就預(yù)測(cè),“超級(jí)智能人工智能可能會(huì)發(fā)生在我孩子那代人中”[23];而人工智能公司OpenAl的首席執(zhí)行官Sam Altman 也預(yù)測(cè)說(shuō),在幾十年內(nèi),計(jì)算機(jī)程序幾乎可以 一切事情,包括做出新的科學(xué)發(fā)現(xiàn)、擴(kuò)大我們對(duì)萬(wàn)事萬(wàn)物的認(rèn)知和概念[24]。谷歌DeepMind的聯(lián)合創(chuàng)始人Shane Legg在2008年的時(shí)候就預(yù)測(cè)道,“人類(lèi)水平的人工智能將在2020年代中期實(shí)現(xiàn)”[25], Face book首席執(zhí)行官馬克?扎克伯格在2015年宣布,'Facebook未來(lái)5到10年的目標(biāo)之一便是讓機(jī)器學(xué)習(xí)在基本上所有方面都超越人類(lèi)?!?/p>
然而,盡管學(xué)術(shù)和工業(yè)界對(duì)人工智能都有著十分樂(lè)觀(guān)的預(yù)期,但沒(méi)過(guò)多久,深度學(xué)習(xí)的能力就出現(xiàn)了短板。事實(shí)表明,和所有過(guò)去的人工智能系統(tǒng)一樣,深度學(xué)習(xí)系統(tǒng)在面對(duì)與訓(xùn)練數(shù)據(jù)不同的新的數(shù)據(jù)的時(shí)候,可能會(huì)表現(xiàn)出必不可免的錯(cuò)誤和脆弱性,也就是說(shuō),它們會(huì)出現(xiàn)無(wú)法預(yù)測(cè)的錯(cuò)誤。這是因?yàn)檫@些系統(tǒng)容易受到捷徑學(xué)習(xí)(shortcut learning) [27,28]的影響。
捷徑學(xué)習(xí)是指,算法是從訓(xùn)練數(shù)據(jù)中挖掘和統(tǒng)計(jì)關(guān)聯(lián)性,從而使算法計(jì)算得出正確的答案,但有時(shí)會(huì)錯(cuò)誤的學(xué)習(xí)到其中錯(cuò)誤的關(guān)聯(lián)關(guān)系,而沒(méi)有抓住數(shù)據(jù)背后的重點(diǎn)。換句話(huà)說(shuō),這些算法沒(méi)有學(xué)習(xí)到我們?cè)噲D教給它們的概念和映射關(guān)系,而是在抄近道,在訓(xùn)練集中找到捷徑來(lái)達(dá)到僅在訓(xùn)練集中完成任務(wù)的目的,而這樣的捷徑會(huì)導(dǎo)致錯(cuò)誤的結(jié)果。
事實(shí)上,深度學(xué)習(xí)系統(tǒng)往往無(wú)法學(xué)習(xí)抽象概念,從而無(wú)法使它們能夠?qū)⑺鶎W(xué)到的知識(shí)應(yīng)用到新的情況或任務(wù)中[29]。此外,這些系統(tǒng)很容易受到“對(duì)抗性擾動(dòng)(adversarial perturbations)'[30]的攻擊,特別性擾動(dòng)是指人們對(duì)輸入進(jìn)行特定的更改,這些更改要么是不知不覺(jué)的,要么是與人類(lèi)無(wú)關(guān)的,但會(huì)導(dǎo)致系統(tǒng)犯錯(cuò)誤。
盡管業(yè)界的研究人員已經(jīng)對(duì)深度神經(jīng)網(wǎng)絡(luò)的局限性進(jìn)行了廣泛的研究,但人們對(duì)于其脆弱性的根源仍未完全了解。這些網(wǎng)絡(luò)模型往往包含了大量的參數(shù),是一個(gè)復(fù)雜的系統(tǒng),因此其背后的決策機(jī)制十分的不透明。然而,這些算法通常對(duì)一些對(duì)抗性干擾產(chǎn)生錯(cuò)誤的決策, 也會(huì)產(chǎn)生一些人類(lèi)無(wú)法解釋的錯(cuò)誤,因此,我們可以看出它們實(shí)際上并不理解所處理和所輸入的數(shù)據(jù),至少不是人類(lèi)大腦意義上的“理解”。人工智能領(lǐng)域是否能夠通過(guò)增加網(wǎng)絡(luò)層數(shù)、輸入更多的訓(xùn)練數(shù)據(jù)來(lái)實(shí)現(xiàn)這種真正的理解,或者甚至是為網(wǎng)絡(luò)增加更多關(guān)鍵而基本的因素,才能實(shí)現(xiàn)這種“理解”,我們尚未可知。
在撰寫(xiě)本文時(shí)(2021年年中),學(xué)術(shù)界和工業(yè)界又產(chǎn)出了幾種新的深度學(xué)習(xí)方法,它們?cè)谒⑿聜€(gè)大榜單記錄的同時(shí),再次在人工智能社區(qū)中產(chǎn)生了相當(dāng)大的樂(lè)觀(guān)情緒。
一些最熱門(mén)的新領(lǐng)域是使用自監(jiān)督學(xué)習(xí)[31]、元學(xué)習(xí) [32]和深度強(qiáng)化學(xué)習(xí)[33]的Transformer 結(jié)構(gòu);這里面的每一個(gè)方向都被認(rèn)為是朝著更一般、更類(lèi)似人類(lèi)的人工智能目標(biāo)的重要進(jìn)步。雖然這些Transforme和其他的創(chuàng)新已經(jīng)顯示出一些希望,但人工智能的興衰循環(huán)很可能還會(huì)繼續(xù)。該領(lǐng)域在相對(duì)狹窄的方向上不斷進(jìn)步,但是否以及何時(shí)才能夠讓機(jī)器達(dá)到和人類(lèi)智力相當(dāng)?shù)闹悄芩剑覀冎荒苁媚恳源?/p>
在接下來(lái)的章節(jié)中,我將討論人們對(duì)于算法達(dá)到人類(lèi)水平的人工智能的可能時(shí)間的預(yù)測(cè), 在某些方面反映了我們自己的偏見(jiàn),以及人類(lèi)對(duì)于智能本質(zhì)理解的缺乏。特別是,我描述了我們對(duì)人工智能的思考中的四個(gè)謬論(Fallacy),這些謬論對(duì)我來(lái)說(shuō)似乎是最核心的。雖然這些謬論在人工智能界可能人盡皆知,但專(zhuān)家們做出的許多假設(shè)仍然伴隨著這些謬論的影子,并讓我們對(duì) “真正”智能機(jī)器的近期前景產(chǎn)生了錯(cuò)誤的信心。
我們可以為特定的任務(wù)設(shè)計(jì)專(zhuān)門(mén)的人工智能程序,它雖然不像人類(lèi)一樣通用和聰明,但是能夠完美的處理一些特定的任務(wù)。這些特定的人工智能往往被視為邁向更通用的人工智能的“第一步”。比如,IBM那臺(tái)會(huì)下棋的電腦“深藍(lán)”被譽(yù)為人工智能革命的第一步[34]。IBM更是將其沃森系統(tǒng)夸贊為“邁向認(rèn)知系統(tǒng)的第一步,一個(gè)新的計(jì)算時(shí)代的標(biāo)志”[35]。OpenAI的GPT-3語(yǔ)言生成器也被稱(chēng)為“邁向通用智能的一大步”[36]。
但事實(shí)上,如果人們看到一臺(tái)機(jī)器完成了些很驚人的任務(wù),盡管是在一個(gè)狹窄的區(qū)域,他們通常也會(huì)認(rèn)為這個(gè)領(lǐng)域離通用人工智能還有十分遙遠(yuǎn)的距離。哲學(xué)家日Hubert Dreyfus(因引用Yehoshua Bar-Hillell創(chuàng)造的一個(gè)術(shù)語(yǔ))將這種 認(rèn)知稱(chēng)為“第一步謬論”。正如Dreyfus所描述的那樣,“第一步謬論是指,我們總是認(rèn)為,自從我們?cè)谟?jì)算機(jī)智能方面的第一次工作以來(lái),我們就一直在朝著通用人工智能緩慢前進(jìn),并最終實(shí)現(xiàn)終極態(tài)的人工智能。我們還盲目的相信,我們對(duì)代碼和程序的任何改進(jìn),無(wú)論多么微不足道,都算作是一種人工智能的進(jìn)步?!盌reyfus引用了他的工程師哥哥Stuart Dreyfus的一句話(huà)調(diào)侃道:“這就像是說(shuō)第一只爬上樹(shù)的猴子正在朝著登陸月球前進(jìn)一樣荒誕不經(jīng)”[37]。
Dreyfus和許多前輩與后輩的人工智能專(zhuān)家一樣持有類(lèi)似的觀(guān)點(diǎn),他說(shuō),在人工智能連續(xù)進(jìn)步的假設(shè)中,“意想不到的障礙”一直是常識(shí)問(wèn)題。我將在最后一節(jié)中更多地談?wù)撨@個(gè)常識(shí)障礙。
雖然John McCarthy哀嘆說(shuō)“人工智能比我們想象的要難”,但Marvin Minsky解釋說(shuō),這是因?yàn)椤叭菀椎氖虑楹茈y”[38]。也就是說(shuō),我們?nèi)祟?lèi)在沒(méi)有太多思考的情況下所做的事情,比如眺望世界,理解我們所看到的,進(jìn)行對(duì)話(huà),走在擁擠的人行道上而不撞到任何人等等,這些事情對(duì)機(jī)器來(lái)說(shuō)是最困難的挑戰(zhàn)。
而相反,讓機(jī)器做對(duì)人類(lèi)來(lái)說(shuō)非常困難的事情往往更容易。例如,解決復(fù)雜的數(shù)學(xué)問(wèn)題,掌握國(guó)際象棋和圍棋等游戲,以及在數(shù)百種語(yǔ)言之間互相翻譯……這些對(duì)機(jī)器來(lái)說(shuō)都相對(duì)容易。這是一種被稱(chēng)為“莫拉韋茨悖論”(Moravec's paradox)的問(wèn)題,它以機(jī)器人學(xué)家Hans Moravec的名字來(lái)命名,他寫(xiě)道:“讓計(jì)算機(jī)在智力測(cè)驗(yàn)或跳棋時(shí)表現(xiàn)出成人水平的表現(xiàn)相對(duì)容易,但在感知和行動(dòng)能力方面,計(jì)算機(jī)窮極一生很可能也達(dá)到一歲孩子的水平''。
這個(gè)謬論從人工智能領(lǐng)域的萌芽之初便影響了人們對(duì)人工智能技術(shù)的思考。人工智能先驅(qū) Herbert Simon說(shuō):“人們認(rèn)知中所有感興趣的事情發(fā)生在100毫秒以上,而100ms其實(shí)就是你認(rèn)出母親所需要的時(shí)間”[40]。Simon是說(shuō),要理解認(rèn)知,我們不必?fù)?dān)心無(wú)意識(shí)的感知過(guò)程。這一假設(shè)反映在大多數(shù)象征性的人工智能傳統(tǒng)中,它側(cè)重于對(duì)已經(jīng)感知到的輸入的推理過(guò)程。
在過(guò)去的幾十年里,符號(hào)派的人工智能方法在學(xué)術(shù)界失去了青睞,學(xué)術(shù)界主要由深度學(xué)習(xí)主導(dǎo)。深度學(xué)習(xí)確實(shí)解決了感知的問(wèn)題。然而, 這一謬論背后的假設(shè),仍然出現(xiàn)在很多近期發(fā)表的人工智能的言論當(dāng)中。例如,在2016年的一篇文章中,深度學(xué)習(xí)先驅(qū)Andrew Ng引用了 Simon的假設(shè),大大低估了無(wú)意識(shí)感知和思維的復(fù)雜性:“如果一個(gè)典型的人能夠用不到一秒鐘的思維完成一項(xiàng)腦力任務(wù),我們現(xiàn)在或不久的將來(lái)都可以使用人工智來(lái)將其自動(dòng)化”[41]。
而更微妙的是,谷歌DeepMind的研究人員在談到AlphaGo的勝利時(shí),將圍棋游戲描述為“最具挑戰(zhàn)性的領(lǐng)域”之一[42]。這個(gè)挑戰(zhàn)是對(duì)誰(shuí)而言?也許對(duì)人類(lèi)來(lái)說(shuō)是如此。但正如心理學(xué)家 Gary Marcus所指出的,有些領(lǐng)域,包括游戲,雖然對(duì)人類(lèi)來(lái)說(shuō)很容易,但對(duì)比而言,這些任務(wù)對(duì)于人工智能程序來(lái)說(shuō),比如Alpha Go,會(huì)更具挑戰(zhàn)性。一個(gè)例子是猜謎游戲,它既需要表演技能、語(yǔ)言技能,更需要復(fù)雜的思維理論[43],這些能力遠(yuǎn)遠(yuǎn)超出了人工智能今天所能完成的事情。
人工智能比我們想象的要難,因?yàn)槲覀冊(cè)诤艽蟪潭壬蠜](méi)有意識(shí)到自己思維過(guò)程的復(fù)雜性。Hans Moravec這樣解釋了他的悖論:“人類(lèi)經(jīng)歷了上億年的進(jìn)化,大腦中深深烙印著一些原始的生存技能,其中包含了巨大、高度進(jìn)化的感官和運(yùn)動(dòng)機(jī)制,這些都是人類(lèi)關(guān)于世界本質(zhì)以及如何在其中生存的上億年的經(jīng)驗(yàn)。我相信,執(zhí)行這種需要深思熟慮的思考過(guò)程是人類(lèi)最外化的表現(xiàn),而其背后深層次和有效的,則是源于這種更古老和更強(qiáng)大的感知和運(yùn)動(dòng)能力的本能反應(yīng)。而這種支持通常是無(wú)意識(shí)的。換句話(huà)說(shuō),因?yàn)槲覀冏嫦鹊膹?qiáng)大進(jìn)化,我們每個(gè)人都是感性理解、人情世故和運(yùn)動(dòng)領(lǐng)域的杰出運(yùn)動(dòng)員,我們實(shí)在是太優(yōu)秀了,以至于我們?cè)诿鎸?duì)實(shí)際上十分困難的任務(wù)時(shí)還能駕輕就熟”[44]。
簡(jiǎn)而言之,Marvin Minsky指出,總的來(lái)說(shuō),其實(shí)我們不知道自己的大腦最擅長(zhǎng)什么[45]。
“助記法陷阱”(wishful mnemonic)一詞是計(jì)算機(jī)科學(xué)家Drew McDermott在1976年對(duì)人工智能的批評(píng)中所提出的,他說(shuō):
“人工智能程序頭腦簡(jiǎn)單,其主要根源之一便是它會(huì)濫用助記符,比如它會(huì)用“理解”或“目標(biāo)”來(lái)指代程序和數(shù)據(jù)結(jié)構(gòu),從而在程序運(yùn)行時(shí)表現(xiàn)出理解的樣子,但其實(shí)只是輸出了“理解”的字樣。這是很荒誕的,因?yàn)檫@就像是一個(gè)工程師把它的主循環(huán)稱(chēng)為“理解”,那他就算技藝再高超,能力再超群,也沒(méi)辦法真正理解數(shù)據(jù)背后的意義,更沒(méi)辦法用算法逼近真正的目標(biāo)。他可能會(huì)誤導(dǎo)很多人,其中首當(dāng)其沖而不自知的就是它自己。實(shí)際上,他應(yīng)該將這個(gè)主循環(huán)稱(chēng)為“G0034”之類(lèi)的沒(méi)有實(shí)際意義的代號(hào),看看它是否能說(shuō)服自己或其他人,讓他們相信G0034實(shí)現(xiàn)或理解了某些部分。一旦你看到這一點(diǎn),你就會(huì)在腦子里浮現(xiàn)出種種研究人員會(huì)犯的助記法陷阱的例子[46]?!?/p>
可悲的是,時(shí)至十年后的今天,人工智能工作中還是助記符陷阱的重災(zāi)區(qū)。其中最嚴(yán)重的泥淖之地便是術(shù)語(yǔ),與人類(lèi)智能相關(guān)的術(shù)語(yǔ)。這些術(shù)語(yǔ)被用來(lái)描述人工智能程序的行為,也用來(lái)評(píng)估模型的效果和性能。神經(jīng)網(wǎng)絡(luò)的靈感來(lái)自于人類(lèi)大腦,但本質(zhì)上來(lái)說(shuō)他們之間存在很大的差異。機(jī)器學(xué)習(xí)或深度學(xué)習(xí)方法背后的學(xué)習(xí)機(jī)制,和人類(lèi)(或者動(dòng)物)的學(xué)習(xí)機(jī)制存在著天壤之別。事實(shí)上,如果一臺(tái)機(jī)器學(xué)到了人類(lèi)意義上的東西,我們希望他能夠在不同的環(huán)境中運(yùn)用這些知識(shí)。但是,事實(shí)證明,情況往往并非如此。在機(jī)器學(xué)習(xí)中,有一個(gè)專(zhuān)門(mén)的子領(lǐng)域叫做遷移學(xué)習(xí),它關(guān)注如何讓算法能夠?qū)⑺麄冊(cè)谀硞€(gè)領(lǐng)域中學(xué)習(xí)到的東西遷移到新的場(chǎng)景中。而這是人類(lèi)學(xué)習(xí)的基礎(chǔ),或者說(shuō)是與生俱來(lái)的能力。顯然,機(jī)器學(xué)習(xí)目前無(wú)法做到這點(diǎn)——它還不是真正的智能。
事實(shí)上,我們?cè)谟懻摶蛘咴u(píng)價(jià)機(jī)器學(xué)習(xí)能力的方式,也影響了我們對(duì)這些能力的客觀(guān)評(píng)價(jià),從而無(wú)法為它給出一個(gè)合適的位置。具體來(lái)說(shuō),IBM的一位高管曾經(jīng)在無(wú)意之中談到McDermott的言論,他說(shuō)“沃森可以在幾秒內(nèi)閱讀世界上所有的醫(yī)療保健文本”[47]。而IBM的網(wǎng)站則聲稱(chēng)沃森項(xiàng)目能夠“理解其中語(yǔ)言的上下文和細(xì)微差別”[48]。此外,DeepMind的聯(lián)合創(chuàng)始人Demis Hassabis告訴我們,“AlphaGo的目標(biāo)是擊敗世界上最好的人類(lèi)玩家,而不僅僅是模仿他們”[49]。ALphaGo的主要研究人員David Silver這樣描述了一個(gè)現(xiàn)象:“我們?cè)诒荣惖倪^(guò)程中總是去問(wèn)AlphaGo,問(wèn)它覺(jué)得它在比賽的過(guò)程中表現(xiàn)如何。,但是直到比賽快結(jié)束的時(shí)候,AlphaGo才認(rèn)為它將獲勝[50]?!?/p>
人們可能會(huì)爭(zhēng)辯說(shuō),類(lèi)似于助記法這樣的方法只是方便機(jī)器速記而已:IBM的科學(xué)家知道沃森并不能像人類(lèi)那樣閱讀或理解;DeepMind的科學(xué)家知道AlphaGo沒(méi)有人類(lèi)那樣的目標(biāo)或者想法,也就沒(méi)有類(lèi)似人類(lèi)的“游戲”或者“勝利”這樣的概念。然而,這種速記可能會(huì)誤導(dǎo)那些試圖理解結(jié)果的吃瓜群眾,從而連帶著影響媒體對(duì)這些結(jié)果的報(bào)道。而且這還會(huì)潛移默化地改變?nèi)祟?lèi)對(duì)于A(yíng)I系統(tǒng)的思考方式,即使是人工智能專(zhuān)家也會(huì)受此影響,從而對(duì)AI系統(tǒng)與人類(lèi)智能的相似程度作出錯(cuò)誤的判斷。
McDermott的“助記法的陷阱”指的是我們用來(lái)描述人工智能項(xiàng)目的術(shù)語(yǔ),但研究界也適用助記法的陷阱來(lái)命名人工智能的評(píng)價(jià)方法,評(píng)價(jià)我們測(cè)試人工智能技能的優(yōu)劣程度。
例如,以下是人工智能子領(lǐng)域中最常用的一些評(píng)價(jià)方法。在“自然語(yǔ)言處理NLP”領(lǐng)域中,“斯坦福問(wèn)答數(shù)據(jù)集[51]“、”RACE閱讀理解數(shù)據(jù)集[52]'和“通用語(yǔ)言理解評(píng)估[53]”這三個(gè)常用的數(shù)據(jù)集出現(xiàn)的頻率很高。
在所有這些評(píng)價(jià)標(biāo)準(zhǔn)中,最好的機(jī)器算法的性能已經(jīng)超過(guò)了人類(lèi)(Amazon Mechanical Turk workers)。這就引來(lái)了一些媒體的過(guò)度宣傳,如“新的人工智能模型在回答問(wèn)題時(shí)超越了人類(lèi)的表現(xiàn)”[54],“計(jì)算機(jī)在閱讀理解方面比人類(lèi)好[55]',以及“微軟的人工智能模型在自然語(yǔ)言理解方面超越了人類(lèi)”[56]。
考慮到這些評(píng)價(jià)標(biāo)準(zhǔn)的名稱(chēng),人們得出這樣的結(jié)論并不奇怪。但問(wèn)題是,這些基礎(chǔ)實(shí)際上并不能衡量回答問(wèn)題、閱讀理解或者自然語(yǔ)言理解的一半能力。這些測(cè)試僅僅能夠從某些方面來(lái)對(duì)人工智能的性能進(jìn)行評(píng)價(jià);此外,這些基準(zhǔn)中的許多項(xiàng)目是允許機(jī)器學(xué)習(xí)進(jìn)行捷徑學(xué)習(xí)的。正如前文所述,機(jī)器可以利用這些統(tǒng)計(jì)相關(guān)性的捷徑在訓(xùn)練和測(cè)試數(shù)據(jù)集中實(shí)現(xiàn)高性能、而無(wú)需剖析挖掘和學(xué)習(xí)到理解任務(wù)真正需要的實(shí)際技能的[57,58]。雖然機(jī)器在這些特定標(biāo)準(zhǔn)上的表現(xiàn)可以超過(guò)人類(lèi),但人工智能系統(tǒng)仍遠(yuǎn)未達(dá)到人們從基準(zhǔn)測(cè)試集中所看到的那樣神通廣大。
智能是可以與身體分離的東西,它既可以作為一種非物質(zhì)的信息存在,也可以完全封裝在大腦中。這種觀(guān)點(diǎn)在哲學(xué)和認(rèn)知科學(xué)中有著悠久的歷史。
在20世紀(jì)中葉的心理學(xué)領(lǐng)域中出現(xiàn)了所謂的“心里信息處理模型”。這個(gè)模型將大腦視為一種計(jì)算機(jī),它有輸入、存儲(chǔ)、處理和輸出信息的能力。在這種理論中,除了在輸入(感知)和輸出(行為)的階段之外,四肢和身體幾乎沒(méi)有實(shí)際的作用。在這種觀(guān)點(diǎn)下,認(rèn)知完全發(fā)生在大腦中,理論上,認(rèn)知與身體的其他部分是分開(kāi)、獨(dú)立的。這種觀(guān)點(diǎn)的一個(gè)極端推論是,在未來(lái),我們能夠?qū)⑽覀兊拇竽X“上傳”到一臺(tái)計(jì)算機(jī)中,也能夠?qū)⑷祟?lèi)的認(rèn)知和意識(shí)上傳到計(jì)算機(jī)當(dāng)中[59]。
“智能在原則上是非實(shí)體的”這種假設(shè)在歷史上幾乎所有關(guān)于人工智能的工作中都出現(xiàn)過(guò)。其中,早起人工智能研究中最具影響力的想法之一是Newell 和Simon的“物理符號(hào)系統(tǒng)假說(shuō)PSSH“,該假說(shuō)指出:物理符號(hào)系統(tǒng)具有一般智能行動(dòng)必要和充分的手段[60]。其中”物理符號(hào)系統(tǒng)“指的是非常類(lèi)似數(shù)字計(jì)算機(jī)的東西。PSSH假設(shè),通用智能可以在數(shù)字計(jì)算機(jī)中實(shí)現(xiàn),其中不包括大腦或身體的任何非符號(hào)的過(guò)程。(關(guān)于符號(hào)過(guò)程與此符號(hào)過(guò)程的討論,請(qǐng)參見(jiàn)[61]Hofstadter的Waking up from the Bollen Dream)。
Newell和Simon的PSSH是人工智能符號(hào)派大營(yíng)的理論基礎(chǔ),在20世紀(jì)90年代和21世紀(jì)統(tǒng)計(jì)和神經(jīng)啟發(fā)的機(jī)器學(xué)習(xí)興起之前,該領(lǐng)域一直是人工智能領(lǐng)域的領(lǐng)頭羊。然而,后一種非符號(hào)性的方法也認(rèn)為身體與智力是沒(méi)有任何關(guān)聯(lián)的。但是,從20世紀(jì)80年代的連接論,再到今天大行其道的深度神經(jīng)網(wǎng)絡(luò),這類(lèi)神經(jīng)元啟發(fā)的方法通常都會(huì)假設(shè)智力僅僅來(lái)源于大腦的結(jié)構(gòu)和動(dòng)態(tài)。今天的深度學(xué)習(xí)網(wǎng)絡(luò)類(lèi)似于諺語(yǔ)中的brain-in-a-vat:它被動(dòng)地從外界接收數(shù)據(jù),輸出行為指令,而不在世界中與任何類(lèi)型的物體主動(dòng)互動(dòng)。當(dāng)然,機(jī)器人和自動(dòng)駕駛的不同之處在于它們?cè)谑澜缟嫌形锢淼膶?shí)體存在,但到目前為止,它們的物理交互方式,對(duì)它們“智能“反饋的貢獻(xiàn)是相當(dāng)有限的。
智能僅存在于大腦的這種假設(shè)導(dǎo)致了人們的猜測(cè),要實(shí)現(xiàn)人類(lèi)級(jí)別的人工智能,我們只需要擴(kuò)大機(jī)器的計(jì)算存儲(chǔ)單元,以匹配大腦的“計(jì)算能力“,然后為這種大腦匹配的“硬件”開(kāi)發(fā)合適的“軟件”。例如,一位哲學(xué)家曾經(jīng)寫(xiě)了一份報(bào)告,結(jié)論是,他認(rèn)為計(jì)算機(jī)需要10^15FLOP/s的吞吐量才有可能來(lái)執(zhí)行和人腦類(lèi)似的任務(wù)(但是考慮到實(shí)際情況和可行性,這可能有點(diǎn)難)[62]。換句話(huà)說(shuō),我們不要無(wú)腦的肌肉棒子或者無(wú)軀干的思想幽靈!
頂尖的人工智能研究人員也同意這一觀(guān)點(diǎn),也就是需要擴(kuò)大硬件的計(jì)算能力以匹配大腦的結(jié)構(gòu),從而實(shí)現(xiàn)人類(lèi)級(jí)別的人工智能。例如,深度學(xué)習(xí)先驅(qū)Geoffrey Hinton預(yù)測(cè)道,“要在人類(lèi)層面理解語(yǔ)言,我們可能需要人類(lèi)層面的大腦資源,我們的大腦中有數(shù)以?xún)|計(jì)的神經(jīng)元連接。但迄今為止,我們建立的最大的神經(jīng)網(wǎng)絡(luò)僅有十億個(gè)連接。所以實(shí)際上我們還差了好幾個(gè)量級(jí),但我相信硬件人員會(huì)解決這些問(wèn)題的。其他人則預(yù)測(cè),“硬件終有一天會(huì)滿(mǎn)足我們的需求,實(shí)現(xiàn)人類(lèi)級(jí)別的運(yùn)算速度和存儲(chǔ)容量,而這種硬件最有可能就是量子計(jì)算機(jī)[64]”
然而,越來(lái)越多的研究人員則開(kāi)始質(zhì)疑“人工智能僅存在于大腦”這一模型的基礎(chǔ),希望從另一個(gè)角度理解和創(chuàng)造人工智能。計(jì)算機(jī)科學(xué)家Rod Brooks在他所著的“計(jì)算機(jī)隱喻的死胡同(The cul de sac of the computational metaphor)”中認(rèn)為,“我們之所以被困在這個(gè)死胡同里這么久,是因?yàn)槟柖梢恢痹诮o我們溫水煮青蛙,它總是做出正向但是微小的提升,我們一直在想,哦,人類(lèi)一直在進(jìn)步,在進(jìn)步,在進(jìn)步。但是我們沒(méi)有真正想過(guò)另辟蹊徑來(lái)實(shí)現(xiàn)更大更快的突破?!盵65]。
事實(shí)上,幾十年來(lái),許多認(rèn)知科學(xué)家一直在主張讓人們關(guān)注身體在所有認(rèn)知活動(dòng)中的中心地位。其中一位杰出的科學(xué)家,心理學(xué)家Mark Johnson在Embodied Congnition項(xiàng)目中寫(xiě)道,(Embodied Congnition項(xiàng)目是一個(gè)在20世紀(jì)70年代中期開(kāi)展的關(guān)于具身認(rèn)知的研究項(xiàng)目),該項(xiàng)目“開(kāi)始以我們的大腦和身體在我們所經(jīng)歷、思考和執(zhí)行的一切的核心作用提供證據(jù)”[66]。心理學(xué)家Rebecca Fincher-Kiefer這樣描述了具身認(rèn)知范式:具身認(rèn)知意味著概念知識(shí)的表征依賴(lài)于身體:它是多模態(tài)的。它不是非模態(tài)的、符號(hào)性或者抽象的。這個(gè)理論表明,我們的思想是建立在一些基礎(chǔ)上的,或者與感知、行動(dòng)和情感密不可分的聯(lián)系在一起的,我們的大腦和身體一起工作,以獲得感知[67]'。
很多學(xué)科也都為這一理論提供了諸多證據(jù)。例如,神經(jīng)科學(xué)的研究表明,控制認(rèn)知的神經(jīng)結(jié)構(gòu),與控制感官和運(yùn)動(dòng)系統(tǒng)的神經(jīng)結(jié)構(gòu)密切相關(guān),抽象思維利用了基于身體的神經(jīng)“地圖”[68]。正如神經(jīng)科學(xué)家唐·塔克所指出的,“沒(méi)有任何大腦部分可以進(jìn)行非實(shí)體感知”[69]。認(rèn)知心理學(xué)和語(yǔ)言學(xué)的結(jié)果表明,我們的許多抽象概念,幾乎都是基于物理的、基于自身的內(nèi)部模型的[70],還有一部分是由日常語(yǔ)言中發(fā)現(xiàn)的基于身體的隱喻系統(tǒng)所揭示的[71]。
其他幾個(gè)學(xué)科,比如發(fā)展心理學(xué),也提出了具身認(rèn)知的證據(jù)。然而,人工智能的研究大多忽略了這些結(jié)果,盡管有一小群研究人員在被稱(chēng)為“具身人工智能”、“發(fā)展機(jī)器人學(xué)”、“基礎(chǔ)語(yǔ)言理解”等的子領(lǐng)域探索這些真理。
與具身認(rèn)知理論相關(guān)的是,伴隨著我們深層社會(huì)生活的情感和“非理性”的偏見(jiàn),通常會(huì)被認(rèn)為與智力是分開(kāi)的,或者阻礙理性的。但實(shí)際上它是使智力成為可能的關(guān)鍵。人工智能通常被認(rèn)為是針對(duì)一種“純粹的智力”,一種獨(dú)立于如飲食和睡眠等情緒、非理性和生存需求的存在。這種對(duì)人工智能的定義在某些方面局限了它的發(fā)展,這種純粹的理性智能可能性的假設(shè)是有失偏頗的,很有可能會(huì)導(dǎo)致人類(lèi)對(duì)未來(lái)“超級(jí)智能機(jī)器人”的恐慌。
例如,哲學(xué)家Nick Bostrom斷言,一個(gè)系統(tǒng)的智力及其目標(biāo)是正交的。他認(rèn)為,“任何水平的智力都可以與任何最終目標(biāo)結(jié)合起來(lái)”[72]。例如,Bostrom想象了一個(gè)超級(jí)人工智能系統(tǒng),其唯一目標(biāo)是生產(chǎn)回形針。這個(gè)想象出來(lái)的超級(jí)機(jī)器人發(fā)明了生產(chǎn)回形針的巧妙的方法,但這個(gè)方法消耗了地球上的所有的資源。
人工智能研究員Stuart Russell同意Bostrom關(guān)于智能和目標(biāo)的正交性的觀(guān)點(diǎn)?!昂苋菀紫胂螅粋€(gè)通用的人工智能系統(tǒng)能夠或多或少地賦予某個(gè)任務(wù)目標(biāo),包括最大限度地增加回形針的數(shù)量,或者求取圓周率小數(shù)點(diǎn)后的若干若干位的數(shù)字[73]。“Russel對(duì)此十分擔(dān)心,因?yàn)槿绻覀儾患尤魏蜗拗频刈屵@種超級(jí)智能體來(lái)解決問(wèn)題時(shí),可能會(huì)導(dǎo)致很多不可預(yù)測(cè)的后果:“如果一個(gè)超級(jí)智能的氣候控制系統(tǒng)想要解決全球變暖,降低二氧化碳,但是它發(fā)現(xiàn)其中最行之有效的方法是將二氧化碳的排放量降低到第二次工業(yè)革命前的水平。而達(dá)到這個(gè)目的的唯一路徑就是將人口減少到零,那它會(huì)怎樣做呢?(比滅霸還狠,不對(duì)……奧、奧創(chuàng)?)”如果我們把錯(cuò)誤的目標(biāo)輸入人工智能機(jī)器,而它比我們更聰明,那局面很可能就不可控了[74]。
上文中Bostrom和Russel提出的思想實(shí)驗(yàn)有著一系列的假設(shè),它們假設(shè)人工智能系統(tǒng)是“超級(jí)智能”的,是沒(méi)有任何基本的人類(lèi)常識(shí)的,同時(shí)它擁有完美的計(jì)算機(jī)硬件驚人的運(yùn)算速度、精度和可編程性。但這些關(guān)于超級(jí)人工智能的假設(shè),在本質(zhì)上則會(huì)受到智能本質(zhì)缺陷性的困擾。
在我們的心理學(xué)或神經(jīng)科學(xué)知識(shí)中,沒(méi)有任何東西能夠在沒(méi)有情感、沒(méi)有文化基礎(chǔ)也沒(méi)有人類(lèi)對(duì)于事物的知識(shí)管理體系的前提下,達(dá)到“純粹的理性”。相反,我們從具身認(rèn)知的研究中學(xué)到的是,人類(lèi)的智力似乎是一個(gè)由各種錯(cuò)綜復(fù)雜的、緊密相連的屬性所組成的復(fù)雜集成系統(tǒng),其中包括情感、欲望、強(qiáng)烈的自我意識(shí)和自主意識(shí),以及對(duì)世界的常識(shí)性理解。
目前來(lái)說(shuō),我們還不清楚這些屬性是否可以分開(kāi)。
聯(lián)系客服