維納對此表示深切憂慮,他于1960年發(fā)表《自動化的某些道德和技術(shù)的后果》(Some Moral and Technical Consequences of Automation)一文,認(rèn)為智能機(jī)器遲早超過并危害人類。其理由是:(1)機(jī)器可能會跳出此前的訓(xùn)練模式,擺脫設(shè)計者的控制,“它們無疑是有創(chuàng)造力的……不僅表現(xiàn)在下棋程序所具有的不可預(yù)見的戰(zhàn)術(shù)上,同時還表現(xiàn)在戰(zhàn)略評估的詳細(xì)加權(quán)上”;[7](2)下棋游戲可以將其能力延伸到其他領(lǐng)域(如核領(lǐng)域),實現(xiàn)智能的跨領(lǐng)域遷移并帶來未知風(fēng)險,“這些具有學(xué)習(xí)能力的機(jī)器可以用于編碼新型按鈕戰(zhàn)爭中的按鈕動作……一個擁有足夠的經(jīng)驗可進(jìn)行適當(dāng)編程的機(jī)器,可能使人類早已經(jīng)被消滅了”;[8](3)人類行動緩慢,難以做出及時有效的回應(yīng)。但塞繆爾并不認(rèn)同維納的觀點,他認(rèn)為機(jī)器不具備獨立思想,下棋程序所謂的“意圖”或“結(jié)論”,只不過是程序設(shè)計者本人意圖的反映。塞繆爾專門在《科學(xué)》雜志撰文“自動化的某些道德和技術(shù)的后果——一種反駁”(Some Moral and Technical Consequences of Automation——A Refutation),強(qiáng)調(diào)“維納的一些結(jié)論我并不認(rèn)同,他似乎認(rèn)為機(jī)器能夠擁有原創(chuàng)性,是人類的一個威脅”,但“機(jī)器不是妖魔,它不是用魔術(shù)操作,也沒有意志,而且與維納的說法相反,除了少見的功能失常情況外,它不能輸出任何未經(jīng)輸入的東西”[9]。 二、強(qiáng)AI樂觀主義與悲觀主義之爭(第一個人工智能黃金時代,1956—1974)Research on Strong Artificial Intelligence Debate form the Historical Perspective
作者簡介:王彥雨(1982- ),男,山東巨野人,中國科學(xué)院自然科學(xué)史研究所副研究員,科學(xué)技術(shù)哲學(xué)博士。北京 100190
原發(fā)信息:《山東科技大學(xué)學(xué)報.社會科學(xué)版》第20186期
內(nèi)容提要:在人工智能發(fā)展史上,強(qiáng)人工智能(“強(qiáng)AI”)一直是一個爭議不斷但卻又不斷引發(fā)人們關(guān)注的議題。對于“強(qiáng)AI”理念,我們應(yīng)合理看待其所發(fā)的各種爭論:(1)“強(qiáng)AI”理念是推動人工智能界不斷打破人機(jī)界限、使AI技術(shù)向前發(fā)展的重要信念;(2)“強(qiáng)AI”爭論背后所反映的是不同社會要素,特別是“兩種文化”(科學(xué)文化和人文文化)之間的張力,且AI界的這幾種文化也經(jīng)歷著由對立、沖突,到逐漸的嘗試性對話與合作這一過程。(3)AI界、哲學(xué)界在對待“強(qiáng)AI”這一議題的態(tài)度并非一成不變,AI界經(jīng)歷了一個由樂觀與支持到悲觀與放棄以及現(xiàn)在的謹(jǐn)慎心態(tài),而哲學(xué)界對于“強(qiáng)AI”的態(tài)度則是沿著由批判與質(zhì)疑到現(xiàn)在的大力宣揚這一路徑演變,且當(dāng)前他們對強(qiáng)AI所可能引發(fā)的風(fēng)險更為憂慮。(4)“強(qiáng)AI”概念需要進(jìn)行重新界定,使其成為科學(xué)而非單純的“科幻式”概念,并給予強(qiáng)AI風(fēng)險議題更多關(guān)注。
Throughout the history of artificial intelligence(AI),"strong AI" has always been a controversial concept which constantly arouses people's concern For the idea of "strong AI",we are expected to take a reasonable view of the various arguments it has caused:(1)The idea of "strong AI" is an important force to drive AI technology to break the boundary between humans and machines and develop forward;(2)The controversy of "strong AI" reflects the tension between different social factors,including the "two cultures"(scientific culture and humanistic culture),the mainstream world outlook,i.e.science and technology are the competitiveness and productivity and so on Besides,these cultures in AI circle go through a process from opposition to conflict,and finally to tentative dialogue and cooperation(3)The attitude of AI circle and philosophical circle towards "strong AI" is changing:AI circle was initially optimistic and supportive,and then pessimistic and ignoring,and is now finally cautious; philosophical circle towards "strong AI" was critical and suspicious,and now advocates vigorously,moreover,it is more concerned about the risk that strong AI may cause.(4)The concept of "strong AI" needs to be redefined to make it a scientific concept rather than a simple one of "science fiction".Besides,more attention should be paid to the "strong AI" risk.
關(guān)鍵詞:強(qiáng)AI/“機(jī)器智能惡與善”之爭/樂觀主義與悲觀主義之爭/“智能增強(qiáng)”理念/“奇點”理論/“強(qiáng)AI風(fēng)險論”/科技巨風(fēng)險 strong AI/debate on "the evil and the good of machine intelligence"/debate between optimism and pessimism/concept of "intelligence augmentation"/"singularity" theory/"theory of strong AI risk"/huge risk of science and technology
標(biāo)題注釋:中國科學(xué)院自然科學(xué)史研究所重點培育方向項目“科技的社會風(fēng)險”;中國科學(xué)院青年研教項目“機(jī)器人ELSI問題研究”項目。
強(qiáng)人工智能(“強(qiáng)AI”)概念由哲學(xué)家塞爾(John Searle)于20世紀(jì)80年代所提出,[1]類似的概念還包括高端“通用人工智能”(Artificial General Intelligence)、波斯特羅姆(Nick Bostrom)的“超級智能”(Super intelligence)、弗諾·文奇(Vernor Steffen Vinge)的“奇點”(singularity)等,其對應(yīng)的概念是“弱AI”(weak AI)或應(yīng)用性AI、專用AI?!叭魽I”不具有真正的智能或自主意識,只能解決特定領(lǐng)域中的問題;而“強(qiáng)AI”則是指達(dá)到人腦水平的機(jī)器智能,可以全面、綜合地復(fù)現(xiàn)人類大多數(shù)(或全部)的思維能力,甚至具有諸如自主意識、算計、情感反應(yīng)等價值或情感要素。如塞爾將“強(qiáng)AI”界定為“一個機(jī)器可以展示出或模擬人類水平的聰明程度,或超出人類的聰明程度”,波斯特羅姆強(qiáng)調(diào)“超級智能”“幾乎在所有領(lǐng)域均能夠遠(yuǎn)遠(yuǎn)超過人類的認(rèn)知能力”。強(qiáng)AI是否能實現(xiàn)、是否與人為善,對于這一問題,學(xué)者們給出了不同看法。一些學(xué)者,如埃隆·馬斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)等認(rèn)為強(qiáng)AI最終會實現(xiàn)且會與人為惡,劉益東則指出強(qiáng)AI具有雙重危險,屬于“致毀知識”,因為其正負(fù)效應(yīng)不可抵消,無論它有多大的正面效應(yīng),也是“一壞遮百好”,所以應(yīng)該明令禁止。[2]蔡恒進(jìn)也認(rèn)為,“作為人類意識延伸的人工智能,被賦予的是偏狹而非完整的意識,在快速進(jìn)化之后會導(dǎo)致其能力與意識狀態(tài)的極度不匹配”;[3]一些學(xué)者認(rèn)為強(qiáng)AI的實現(xiàn)雖然不可避免,但它是有益于人類的,如赫伯特·西蒙(Hebert Simon)、庫茲韋爾(Ray Kurzweil)等;也有人將強(qiáng)AI視為是一種不可能實現(xiàn)的幻想,如嚴(yán)樂春(Yann LeCun)、譚鐵牛等。
關(guān)于“AI能否達(dá)到人類的思維水平、是否會取代甚至控制人類”這一問題(我們稱之為“強(qiáng)AI議題”),自“人工智能”這一學(xué)科產(chǎn)生之日起便引發(fā)廣泛關(guān)注,相關(guān)分析散見于人工智能史研究中,如丹尼爾·克勒維耶(Daniel Crevier)在1993年的著作《AI:人工智能研究的動蕩史》中,描述了人工智能發(fā)展初期樂觀派和悲觀派之間的爭論、對立過程;約翰·馬爾科夫(John Markoff)在《與機(jī)器人共舞:人工智能時代的大未來》一書中,對人工智能研究共同體中“強(qiáng)AI派”與“智能增強(qiáng)派”之間的緊張關(guān)系進(jìn)行了闡釋,等。但是這些研究較為分散,沒有能夠結(jié)合各個時期爭論的不同主題,對“強(qiáng)AI”的整個爭論史進(jìn)行系統(tǒng)的論述,實際上,在人工智能發(fā)展的不同階段,人們對“強(qiáng)AI議題”的關(guān)注點及討論視角一直在發(fā)生著變化(見圖1)。本文主要探討的問題是,(1)在人工智能發(fā)展的不同時期,AI共同體內(nèi)部不同群體以及哲學(xué)社會科學(xué)界對“強(qiáng)AI”分別持何種態(tài)度?(2)不同爭論群體在“強(qiáng)AI”這一議題上是否以及如何對話與互動;(3)“強(qiáng)AI議題”對人工智能的發(fā)展有何作用,特別是如何影響通用人工智能與專用人工智能兩種研究路徑的演進(jìn)。
圖1 不同時期人們關(guān)于強(qiáng)人工智能的爭論議題及關(guān)注點變化
一、圖靈的擔(dān)憂及諾伯特·維納與塞繆爾關(guān)于“機(jī)器智能惡與善”問題之爭(1950—1956)
1950年,圖靈發(fā)表著名論文《計算機(jī)器與智能》(Computing Machinery and Intelligence),首次提出“機(jī)器是否可以思考”這一問題。[4]442圖靈認(rèn)為,機(jī)器可以像人腦一樣思維,他強(qiáng)調(diào)“模仿”概念,即機(jī)器可以模仿人腦從而實現(xiàn)人腦的某些功能。圖靈將人腦比擬為一臺數(shù)字計算機(jī),由存儲器、執(zhí)行單元和控制器所構(gòu)成,通過“編程”將目標(biāo)函數(shù)輸入機(jī)器,從而實現(xiàn)特定目標(biāo),“分析機(jī)實際上是一臺萬能數(shù)字計算機(jī),當(dāng)它的存儲能力和速度達(dá)到一種程度,人類就可能通過適當(dāng)?shù)某绦蚴顾7挛覀冇懻摰臋C(jī)器”[4]433-460。機(jī)器“思考”的限度是什么?或是說圖靈眼中的機(jī)器是否具有強(qiáng)AI屬性?他認(rèn)為,“機(jī)器可以成為它自己的主題,機(jī)器可以通過觀察自己的行為的結(jié)果,修改自己的程序,以便有效地達(dá)到某種目的”,圖靈眼中的機(jī)器智能不具有諸如道德、倫理、主體感受、意向性等精神或意識要素,它是邏輯的、計算的、線性的,但圖靈認(rèn)為未來的機(jī)器智能將具有學(xué)習(xí)、進(jìn)化、改進(jìn)自我等功能,這種屬性是強(qiáng)AI的重要特征之一。
圖靈的理論促使人們?nèi)パ芯咳绾问箼C(jī)器模仿人類思維方式,如“游戲AI”、定理證明等。1951年,斯特雷奇(Christopher Strachey)編寫出一個跳棋程序,而普林茨(Dietrich Prinz)則發(fā)展出國際象棋程序;1955年,紐厄爾(Allen Newell)和西蒙(Herbert A.Simon)開發(fā)的“邏輯理論家”(Logic Theorist)證明了《數(shù)學(xué)原理》(Principia Mathematica)中38個定理,且發(fā)現(xiàn)了一些新的、更好的證明方式,[5]123-125西蒙認(rèn)為這一程序“解決了古老的精神/身體問題,解釋了一個由物質(zhì)構(gòu)成的系統(tǒng)如何擁有思想特質(zhì)”[6]17。
游戲AI戰(zhàn)勝人類棋手事件,引發(fā)了一些學(xué)者對“機(jī)器是否會控制人類”的擔(dān)憂,其中之一便是維納(Norbert Wiener)。實際上,維納在其1950年的《人有人的用處:控制論與社會》(The Human Use of Human Being)一書中,便基于熵、反饋控制理論,對有機(jī)體與機(jī)器之間的相似性進(jìn)行了論證,認(rèn)為生命體甚至其思維都可以最終被機(jī)械化。維納的擔(dān)憂很快變成現(xiàn)實。1952年,塞繆爾(Arthur Samuel)構(gòu)建了一個被認(rèn)為是能夠?qū)W習(xí)的跳棋程序,1956年2月24日這一跳棋程序打敗了康涅狄格州的西洋跳棋冠軍,而1959年,塞繆爾在與自己所設(shè)計的跳棋游戲AI的對弈中被擊敗。
1956年,達(dá)特茅斯會議(Dartmouth Conference)召開,人工智能研究逐漸建制化,且發(fā)展速度“令人驚奇”。[6]1820世紀(jì)50、60年代,MIT(1959)、斯坦福大學(xué)(1963)、卡內(nèi)基梅隆大學(xué)等均建立了人工智能實驗室。
在人工智能發(fā)展的第一個黃金期(1956—1974年左右),人工智能界對“AI達(dá)到或超過人類智能”這一問題持樂觀態(tài)度。如,1957年赫伯特·西蒙在一篇論述中寫道:“我可以作出的最簡單的結(jié)論是,當(dāng)前世界上擁有可以思考、學(xué)習(xí)、創(chuàng)造的機(jī)器。而且,它們能力的增長非常迅速,在可見的未來,它們解決問題的能力將與人類思維共延”;[10]1970年,明斯基(Marvin Minsky)在《生活》(Life)雜志談到,“在三到八年的時間內(nèi),我們可以擁有其智能等同于普通人的機(jī)器”[5]272-274。在樂觀主義者看來,人腦的一切活動(如推理、情感、決策等)均可以形式化為符號、還原成一系列的數(shù)字或代碼,并通過邏輯程序的創(chuàng)建來復(fù)現(xiàn)人類大腦的所有思維活動。計算機(jī)科學(xué)家道格拉斯·霍夫施塔特(Douglas Hofstadter)在《哥德爾、埃舍爾和巴赫:不朽的金發(fā)辮》(1979)一書中便強(qiáng)調(diào)一切實在性都能轉(zhuǎn)變?yōu)樾问较到y(tǒng),雖然神經(jīng)活動與純粹的數(shù)學(xué)有著巨大的差異性,但是諸如美、意義、感覺、情感依然存在著進(jìn)行形式化表示的可能,“沒有什么理由使人相信,一臺計算中運轉(zhuǎn)得完美無缺的硬件不可能支持那引起體現(xiàn)諸如混亂、遺忘以及美感這類復(fù)雜事件的高層符號行為”[11]。
這一時期,哲學(xué)界開始登場,他們是作為強(qiáng)AI反對派而出現(xiàn)的,如魯卡斯(John Lucas)、德雷福斯(H.Dreyfus)等,他們反對AI樂觀派所認(rèn)為的“所有人類活動均可以符號化、形式化”觀點。如魯卡斯在1961年的《心靈、機(jī)器和哥德爾》(Minds,Machines and Godel)一書中,強(qiáng)調(diào)人類心靈無法進(jìn)行形式化還原,機(jī)器由各個獨立的部分構(gòu)成,它不具有整體的、非機(jī)械性累加的特質(zhì),“一個機(jī)器可以被設(shè)計成它可以表面上‘談’及它‘意識’到自己的行動,但是如果它不變成不同的機(jī)器,它便無法真正擁有這種‘考慮’……一個有意識的思想可以反思自身,并且批評自己的表現(xiàn),且這種活動不需要增加額外的部分:它已經(jīng)是一個完整的、因此不存在阿喀琉斯之踵的物體”[12]。
德雷福斯則利用現(xiàn)象學(xué)對人工智能樂觀派進(jìn)行攻擊。1972年,德雷福斯在其出版的《什么是計算機(jī)不能夠做的:人工智能的極限》(What Computers Can't Do:the Limits of Artificial Intelligence)中強(qiáng)調(diào):并不是所有的問題都可以進(jìn)行形式化,經(jīng)驗、直覺、意義等均無法通過形式規(guī)則來加以描述;且,意義、情感等是在生活實踐中產(chǎn)生的,大腦功能并非完全由其生理機(jī)能所決定,孤立地模擬大腦機(jī)制而不把它放到與外界相聯(lián)系的環(huán)境之中,是無法產(chǎn)生思想的,“如果人工智能研究者的理性概念是對事實的演算,如果當(dāng)他確認(rèn)哪些事實相關(guān)而且有意義時,不是根據(jù)事先的給定,而是由上下文環(huán)境來決定的,那么他要造出智能行為的企圖就會引起論證上的矛盾”;[13]另外,用計算機(jī)通過算法來解決的問題,其復(fù)雜度必須在一定范圍之內(nèi),而現(xiàn)實世界中的問題往往出現(xiàn)復(fù)雜性指數(shù)爆炸現(xiàn)象。
對于德雷福斯的批評,人工智能界進(jìn)行了激烈的攻擊,如西蒙在《思維機(jī)器》(Thinking Machines)一書中將德雷福斯的論點斥之為“廢物”,明斯基認(rèn)為德雷福斯“不理解‘人工智能’,因此也無需理會”。[14]143當(dāng)然,AI界對于德福雷斯也并非完全是批判態(tài)度,一些學(xué)者基于倫理維度來謹(jǐn)慎反思人工智能所可能引發(fā)的社會問題,如ELIZA的發(fā)明者魏澤鮑姆便認(rèn)為AI研究者對德福雷斯的完全漠視是不專業(yè)、且幼稚的。1976年,魏澤鮑姆出版了《計算機(jī)能力與人類理性》(Computer Power and Human Reason),強(qiáng)調(diào)對人工智能的濫用會降低人類的生活價值,“最終必須在人的智能和機(jī)器智能之間劃出一條界限?!税炎灾鳈?quán)交給了一個機(jī)器世界;這種普遍的意義可是值得深入考慮了?!盵15]
雖然遭到哲學(xué)社會科學(xué)界的批評,但是在這一時期,“強(qiáng)AI”成為AI界的主導(dǎo)性理念,并向政府界的資助者做出了許多“浮夸性承諾”,并得到政府的大力支持。如19世紀(jì)60年代中期,麥卡錫曾告訴美國國防高級研究計劃局(當(dāng)時稱ARPA):在未來10年里,他們就可以打造出“全智能機(jī)器”,“我們最終的目標(biāo)是創(chuàng)造能夠像人類一樣高效地從經(jīng)驗中學(xué)習(xí)的程序”[16]114?;诶鋺?zhàn)需求,加之AI界的鼓吹,政府部門特別是美國國防高級研究計劃局將大量的資金注入這一領(lǐng)域,如1963年該機(jī)構(gòu)投入200萬美元資助MIT“AI智能小組”的MAC項目(the Project on Mathematics and Computation),直到1970年代,美國國防高級研究計劃局每年都會向MIT投入300萬美元用于人工智能研究;[14]64-65另外,美國國防高級研究計劃局也資助西蒙在卡耐基梅隆大學(xué)以及麥卡錫在斯坦福大學(xué)的人工智能項目等。在“強(qiáng)AI”理念的推動下,人工智能在各個領(lǐng)域如數(shù)學(xué)及幾何解題、機(jī)器翻譯、自然語言處理、語音及視覺識別、智能機(jī)器人等均取得進(jìn)展,人工智能界希望人工智能能夠擁有類似人腦的越來越多的功能、不斷打破人腦與人工智能之間的限界,如1959年紐厄爾和西蒙發(fā)展出“通用問題求解器”(General Problem Solver),可以處理一些普遍的數(shù)學(xué)問題;1966年,魏澤鮑姆(Joseph Weizenbaum)發(fā)明ELIZA,這是人類歷史上第一個具備可使用特征的自然語言對話程序;1972年,維諾格拉德(T.Winograd)在MIT建立了一個可用自然語言指揮動作的機(jī)器人系統(tǒng)SHRDLU,它可以用普通的英語句子進(jìn)行交流,并執(zhí)行相關(guān)的操作。
聯(lián)系客服