AlphaGo接連兩戰(zhàn)打敗李世石。有些人突然睡不著覺了。
睡不著的人多半不是為了感嘆,誒呀!科技真進(jìn)步!而是擔(dān)心突然有一天,黑客帝國(guó)的一幕出現(xiàn)在眼前:“人類是一種病毒……我們(機(jī)器人)才是解藥……”
和90年代深藍(lán)戰(zhàn)勝國(guó)際象棋冠軍——卡斯帕羅夫,所引發(fā)的人類對(duì)AI初次集體焦慮不同。這一次,AlphaGo沒有使用蠻力算法(brute force algorithm)。當(dāng)年深藍(lán)的勝出方式很干脆,卡斯帕羅夫說自己每下一步,會(huì)推演3-5步,在棋局關(guān)鍵步數(shù)上會(huì)提前計(jì)算12-14步。而深藍(lán)可以每秒鐘輕松計(jì)算出上億個(gè)棋子可能移動(dòng)的位置。盡管,卡斯帕羅夫在下棋過程中故意不按常理出棋,試圖打破計(jì)算機(jī)的慣性思維,甚至在落敗后強(qiáng)調(diào)對(duì)方作弊,上演了一系列狗血故事,但最終大部分人還是相信,97年一戰(zhàn)之后,計(jì)算機(jī)已經(jīng)可以超越人類國(guó)際象棋棋手。
但圍棋不同。它是人類最具變化性的桌游項(xiàng)目。在19乘19的棋盤格上,黑白兩子所能演變出來(lái)的可能性是3(黑、白、空)的361次方(19*19)。除去規(guī)則上不允許的組合,依然約有2.08×10^170種可能。下棋過程,棋子之間完全沒有優(yōu)劣高低(比如象棋的車比兵的力量強(qiáng)大),無(wú)法對(duì)變量進(jìn)行賦值計(jì)算,方寸之間瞬息萬(wàn)變。有人計(jì)算過靠超級(jí)運(yùn)算能力,算出必勝棋局需要的運(yùn)算量在10^600以上。目前根本做不到。但更重要的是,這并不是人類下棋的思維方式。AlphaGo如果想更接近人類,它的思考方式必須像一個(gè)人。
根據(jù)Google的說法,AlphaGo不是一臺(tái)單純的超級(jí)計(jì)算機(jī),而是由多個(gè)數(shù)據(jù)中心作為節(jié)點(diǎn)相連的神經(jīng)網(wǎng)絡(luò)系統(tǒng),這種卷積神經(jīng)網(wǎng)絡(luò)常常用來(lái)做圖像識(shí)別。而且它還有兩套神經(jīng)網(wǎng)絡(luò),策略網(wǎng)絡(luò)(policy network),和價(jià)值網(wǎng)絡(luò)(value network)。AlphaGo用策略網(wǎng)絡(luò)運(yùn)算靠譜的下棋招式,并且同時(shí)用價(jià)值網(wǎng)絡(luò)減少不必要的瞎想,也就是說它只會(huì)集中精力想未來(lái)的20步棋,而不是天馬行空的計(jì)算上百步。這會(huì)更較接近人類的思考方式。在有關(guān)AlphaGo大戰(zhàn)李世石的報(bào)道里,都在不斷強(qiáng)調(diào),人類棋手在下圍棋時(shí),常常憑借“直覺”(intuition)也就是棋感。而AlphaGo則通過大量的學(xué)習(xí),表現(xiàn)出了這種直覺。
但AlphaGo的勝利并不是源自于一種新技術(shù)和新算法,而是表現(xiàn)出了目前這種算法展現(xiàn)出的新高度。
沒人覺得以現(xiàn)在人工智能的水平,能前一秒在圍棋上擊敗了李世石,后一秒就開始琢磨人類怎么這么笨,于是決定自我復(fù)制,最終統(tǒng)治地球。但人工智能發(fā)展了60年,很多人逐漸覺得,未來(lái)的AI不可能一心一意為人類服務(wù),鞠躬盡瘁死而后已。尤其是當(dāng)它們足夠聰明,就不可能甘心做一個(gè)工具。
對(duì)于人工智能的討論已經(jīng)不光是一個(gè)科學(xué)問題,還是一個(gè)哲學(xué)的問題。但究竟這個(gè)世界能否出現(xiàn)對(duì)人類有威脅的人工智能,依然是所有討論的基礎(chǔ)。有一派人堅(jiān)定的認(rèn)為,人類不可能造出超越人腦的機(jī)器。而另一部分人則覺得值得期待,如果非要給出一個(gè)時(shí)限,人們給出的中值是在2040年到2050年之間。
但無(wú)論人們覺得人工智能是造福、還是毀滅人類,如果不繼續(xù)研究下去,都始終無(wú)法給出結(jié)論。只有當(dāng)我們?cè)缴钊腴_發(fā),才能越了解它的危險(xiǎn)和價(jià)值,并且采取對(duì)應(yīng)的措施。面對(duì)人工智能的理智態(tài)度,絕不是停滯不前,空想和焦慮。
人類開發(fā)出超越人類智力水平的人工智能,和它們將毀滅人類,這兩者之間沒有必然的因果關(guān)系。
首先,智力水平和領(lǐng)導(dǎo)地位在某種程度上缺乏必然聯(lián)系。智力超群的人類,比如科學(xué)家和哲學(xué)家,在我們這個(gè)社會(huì)中并沒有扮演統(tǒng)治者的角色。即便是最聰明的科學(xué)家也要等著政府撥款和企業(yè)贊助。而權(quán)力和資源、社會(huì)關(guān)系的關(guān)系反而更加密切。所以想要靠智力水平超越人類,從而實(shí)現(xiàn)統(tǒng)治,需要的恐怕不是一般意義的高智商,而是我們無(wú)法體會(huì)的超高智商。
其次,我很同意Evernote創(chuàng)始人Phil Libin對(duì)于AI的觀點(diǎn)。就算有一天,一個(gè)超高智力水平,且完全理性思考的人工智能,真的獲得了統(tǒng)治地位。為什么這個(gè)地球的最新主宰者,做出的理智決定是要?dú)缛祟悾渴聦?shí)上,人類越聰明,越不會(huì)輕易殺人,也不會(huì)對(duì)其他物種實(shí)施滅絕政策。相反我們會(huì)保護(hù)野生物種,和生態(tài)環(huán)境。這面除了感情的因素,還有更多理性思考,因?yàn)樗鼈儠?huì)對(duì)人類產(chǎn)生價(jià)值。除非,它們沒有價(jià)值,或者“有害”。
歸根結(jié)底,那些對(duì)于人工智能的恐懼,還是源于我們對(duì)于自身缺陷的擔(dān)憂,對(duì)人類不智行為的愧疚,以及對(duì)這個(gè)我們本身這個(gè)物種缺乏自信。我們擔(dān)心的不是人工智能,而是擔(dān)心出現(xiàn)一個(gè)超人。它有超越人類的能力,以及超越人類的“自私”和“邪惡”。才會(huì)把人類曾經(jīng)做出的極端行為,加倍奉還。
人工智能的確是一個(gè)我們需要關(guān)注和警惕的領(lǐng)域,就像所有現(xiàn)代科學(xué)領(lǐng)域,如果不能有效的控制管理,都有可能產(chǎn)生巨大威力。但它目前仍然不是一個(gè)我們需要為之焦慮的話題。尤其是當(dāng)我們面對(duì)空氣污染,氣候變化,貧困和流行病,這些更有可能隨時(shí)消滅人類的現(xiàn)實(shí)問題時(shí)。
盡管,比爾蓋茨發(fā)表過AI將對(duì)人類產(chǎn)生威脅的觀點(diǎn),但蓋茨基金會(huì)大部分的工作重點(diǎn)依然在防止傳染病方面。而他本人也認(rèn)為(經(jīng)過大量計(jì)算和分析),如果在有生之年經(jīng)歷人類大規(guī)模消亡,那么最有可能的禍根,不是核戰(zhàn)爭(zhēng)、不地震,也不是小行星的撞擊,而是一場(chǎng)大規(guī)模的流行病。從致死數(shù)字和比例上看,黑死病和1918年的全球性H1N1甲型流感,完勝世界大戰(zhàn)。Elon Musk也談過人工智能的危險(xiǎn),但他目前在搞的這些無(wú)人駕駛技術(shù),說白了也是人工智能。
顯然,最了解人工智能的人群,并沒有我們想象的那么焦慮。(來(lái)源:“歐萌科學(xué)家”公眾號(hào))
聯(lián)系客服