圖片來源:pixabay
2016年,AlphaGo戰(zhàn)勝了前圍棋世界冠軍李世石,登上各大新聞?lì)^條。這不免讓人想起1997年在國(guó)際象棋上戰(zhàn)勝人類的IBM深藍(lán),但不同的是,國(guó)際象棋的棋盤是8×8,而圍棋的棋盤是19×19,每一步棋多出來的可能性讓棋局的可能性呈指數(shù)暴增,讓IBM深藍(lán)的窮舉策略變得不可能。但在蒙特卡洛樹和深度神經(jīng)網(wǎng)絡(luò)的加持下,AI圍棋程序AlphaGo展現(xiàn)出了魔法一般的能力,讓人類無從招架。
隨著AlphaGo的勝利,AI對(duì)人類的威脅,不論是科幻中控制人類社會(huì)的AI失控,還是現(xiàn)實(shí)中的失業(yè)風(fēng)險(xiǎn),都引起了越來越多的注意,這與現(xiàn)目前人們對(duì)ChatGPT和GPT-4的擔(dān)憂別無二致。不過,當(dāng)時(shí)敗北的李世石卻發(fā)出了不一樣的聲音:“它的風(fēng)格完全不同,和它對(duì)弈的體驗(yàn)非同一般,我花了點(diǎn)時(shí)間才適應(yīng)。AlphaGo讓我意識(shí)到,我在圍棋上還能繼續(xù)精進(jìn)?!蓖瑫r(shí),幾個(gè)月前就輸給AlphaGo的歐洲圍棋冠軍選手樊麾也表示,與AlphaGo的對(duì)弈讓他對(duì)圍棋有了“完全不同”的看法,這在后來甚至提升了他的排名。
人工智能究竟有沒有改變頂級(jí)棋手的思考方式,這很難研究。但是幾十年來職業(yè)棋手對(duì)弈時(shí)的棋譜則為研究人員提供了寶貴的參考。3月13日在《美國(guó)科學(xué)院刊》上發(fā)表的一篇論文顯示,自從圍棋AI出現(xiàn)后,人類選手在圍棋競(jìng)賽中的水平確實(shí)提高了。
DeepMind首席科學(xué)家、AlphaGo項(xiàng)目負(fù)責(zé)人戴維·西爾弗(David Silver,并未參與此項(xiàng)研究)表示:“看到人類玩家能這么快適應(yīng),并將新發(fā)現(xiàn)融入自己的對(duì)局中,真的令人驚訝。論文結(jié)果表明,人類能很快適應(yīng)這些變化,并在此基礎(chǔ)上更進(jìn)一步,提升自己?!?/p>
為了查明圍棋AI是否促使人類找到了新的圍棋策略,香港城市大學(xué)的助理教授申敏奎和同事使用了一個(gè)數(shù)據(jù)庫(kù)網(wǎng)站Games of Go on Download,其中收錄了1950至2021年期間580萬次棋局的棋譜。之所以從1950年開始記錄數(shù)據(jù),是因?yàn)?950年是現(xiàn)代圍棋規(guī)則建立的那一年。
為了梳理580萬盤棋局,研究團(tuán)隊(duì)必須創(chuàng)造一套程序來評(píng)估每一步?jīng)Q策的質(zhì)量。研究團(tuán)隊(duì)用到了人工智能系統(tǒng)KataGo,評(píng)估人類每一步棋的勝率,并將它和AI決策的勝率進(jìn)行比較,并以此評(píng)判人類棋手每一步棋的水平。DeepMind的AlphaGo并沒有公開,一般認(rèn)為KataGo是和AlphaGo同等級(jí)的AI圍棋程序。
研究人員用AI勝率分析了2016年以前和2016年以后的數(shù)據(jù)。結(jié)果非常明顯,在AI擊敗人類圍棋冠軍之前的66年里,人類的決策水平在AI看來保持一致,或者說停滯不前,而在2016年AlphaGo的勝利后,人類棋手的決策質(zhì)量開始攀升——人類雖然可能下不過圍棋AI,但在圍棋AI的指導(dǎo)下,人類圍棋選手的決策質(zhì)量也在不斷攀升。
掌握了這些數(shù)據(jù),研究人員又開發(fā)出了一種方法,來查明人類棋手下出的棋中,究竟哪一步是新穎的——這指的是這種下法沒有出現(xiàn)在以前的對(duì)弈記錄中。在圍棋對(duì)弈的創(chuàng)新型分析中,研究人員跟蹤了每局棋的前60手,并在新下法出現(xiàn)時(shí)進(jìn)行標(biāo)記。比如,如果一場(chǎng)比賽中到第9手時(shí)才和傳統(tǒng)下法出現(xiàn)差異,而另一場(chǎng)比賽中到第15手才出現(xiàn)差異,那么前一場(chǎng)比賽就比另一場(chǎng)比賽更多變、更新奇。
結(jié)果顯示,在2016年之后,人類棋手的下法更多變了。而且有趣的是,在2016年之前,大多數(shù)新穎的下法往往會(huì)降低整體的勝率;而2016年之后則反了過來——新穎的下法反而會(huì)提升整體勝率。很顯然,單純的“背AI棋譜”并不能達(dá)成這樣的效果,AI真的幫人類找到了更科學(xué)的下棋方法。
但情況在最近發(fā)生了轉(zhuǎn)變。最近,美國(guó)棋手凱琳·佩林(Kellin Pelrine)站了出來,他并非專業(yè)棋手,甚至也不是頂尖業(yè)余棋手,卻能和頂級(jí)圍棋AI取得14:1的戰(zhàn)績(jī)。
他所用下法是一種專用于對(duì)抗AI的方法,如果用這種方法和人類玩家對(duì)弈,你一定會(huì)輸?shù)煤軕K。并且,最令人失望的是,就連這種專門針對(duì)AI的下法,也是由計(jì)算機(jī)程序算出來的。
美國(guó)加州科技公司FAR AI的首席執(zhí)行官亞當(dāng)·格利夫(Adam Gleave)設(shè)計(jì)了這個(gè)程序,他表示:“開發(fā)這套系統(tǒng)出乎意料的容易?!彼a(bǔ)充道,該軟件與頂級(jí)圍棋AI KataGo進(jìn)行了超過100萬場(chǎng)對(duì)局,就是為了找到人類棋手可以利用的盲點(diǎn)。
這個(gè)由計(jì)算機(jī)程序找到的對(duì)抗AI的策略是這樣的:慢慢地在棋盤外圈連起來一連串棋子,試圖將這一串棋子圍成一個(gè)大“包圍圈”,同時(shí),在棋盤的其他角落下一些分散的棋子來分散AI的注意力。使用這種策略,AI很難發(fā)現(xiàn)你已經(jīng)悄悄圍起來了一大片區(qū)域,最終你能通過這種方法占據(jù)更多目,戰(zhàn)勝不可一世的圍棋AI。
但是如果你用這種方式來和人類棋手對(duì)弈,對(duì)方大概率會(huì)覺得你是一個(gè)剛剛掌握圍棋規(guī)則的新手,只想過來隨便玩玩。畢竟這種下法的目的太明顯了——就是想用棋子圍起來一大片區(qū)域。只要對(duì)方掌握了基本的圍棋規(guī)則,用這種下法基本就沒有勝率。因?yàn)?strong>只要你的“包圍圈”還沒有合攏,對(duì)方就能在幾手棋內(nèi)輕松破解整個(gè)包圍圈。這時(shí),因?yàn)槟阍诎鼑ι侠速M(fèi)了太多棋子,已經(jīng)不可能再贏得這場(chǎng)比賽了。
但AI就是識(shí)別不出潛在的危險(xiǎn),也無法在包圍圈合攏前破解整個(gè)包圍圈。當(dāng)然,在棋盤的其他角落分散下一些棋子來吸引AI的注意還是需要一些水平的。據(jù)佩林的說法,至少也要是比較強(qiáng)的愛好者才能用這種辦法戰(zhàn)勝AI。
研究人員表示,KataGo之所以失手,可能是因?yàn)樵谒膶?duì)抗性演練中,并沒有經(jīng)歷過足夠多的此類下法——或者說,這種制造“包圍圈”的下法往往在剛開始時(shí)就因?yàn)槔速M(fèi)棋子太多,而被認(rèn)為注定落敗,所以圍棋AI也沒有意識(shí)到如果讓“包圍圈”合圍,自己就會(huì)落敗。
AlphaGo的出現(xiàn)讓人類圍棋水平快速提升,申敏奎表示:“我們不應(yīng)將人工智能視作人類的威脅,而是一種能增強(qiáng)我們能力的寶貴工具”。在ChatGPT和GPT-4爆火的今天,這種觀點(diǎn)能給人更多希望。
但是,這一切并非沒有風(fēng)險(xiǎn),就像在AI已經(jīng)統(tǒng)治圍棋界的今天,仍有一部分在人類看來完全不成立的下法卻能戰(zhàn)勝AI。亞當(dāng)·格利夫表示:“我們能看到,非常龐大的AI系統(tǒng)在幾乎沒有被驗(yàn)證的情況下就被大規(guī)模部署了?!?strong>這究竟給我們帶來了更多的便利,還是帶來了更多的風(fēng)險(xiǎn),誰都無法回答這個(gè)問題。
聯(lián)系客服