編者按:《連線》雜志在其最近發(fā)布的12月刊上,以封面故事的形式報(bào)道了人工智能的發(fā)展?fàn)顩r?,F(xiàn)在,深度學(xué)習(xí)面臨著無(wú)法進(jìn)行推理的困境,這也就意味著,它無(wú)法讓機(jī)器具備像人一樣的智能。但是真正的推理在機(jī)器中是什么樣子的呢?如果深度學(xué)習(xí)不能幫助我們達(dá)到目的,那什么可以呢?文章作者為克萊夫·湯普森(@pomeranian99),原標(biāo)題為“How to Teach Artificial Intelligence Some Common Sense”。
五年前,總部位于倫敦的人工智能公司DeepMind的程序員,興奮地看著人工智能自學(xué)玩一款經(jīng)典的街機(jī)游戲。他們?cè)谝豁?xiàng)看似“異想天開(kāi)”的任務(wù)上使用了當(dāng)今最熱門(mén)的技術(shù)——深度學(xué)習(xí)——掌握了Breakout。
這是一款雅達(dá)利(Atari)開(kāi)發(fā)的游戲,在游戲中,你需要用移動(dòng)下方的平板,把球彈起,然后把上方的所有磚塊都打消失。
深度學(xué)習(xí),是機(jī)器進(jìn)行自我教育的一種方式;你給人工智能提供大量的數(shù)據(jù),它會(huì)自己識(shí)別模式。在這個(gè)游戲中,數(shù)據(jù)就是屏幕上的活動(dòng)——代表磚塊、球和玩家平板的塊狀像素。
DeepMind的人工智能,一個(gè)由分層算法組成的神經(jīng)網(wǎng)絡(luò),并不知道任何關(guān)于Breakout的工作原理、規(guī)則、目標(biāo),甚至如何發(fā)揮它都不清楚。編碼器只是讓神經(jīng)網(wǎng)絡(luò)檢查每個(gè)動(dòng)作的結(jié)果,每次球的彈起軌跡。這會(huì)導(dǎo)致什么?
事實(shí)證明,它會(huì)掌握一些令人印象深刻的技能。在最初的幾場(chǎng)游戲中,人工智能只是控制下方的平板四處亂晃。但是玩了幾百次之后,它已經(jīng)開(kāi)始準(zhǔn)確地將球彈起了。到了第600場(chǎng)比賽時(shí),神經(jīng)網(wǎng)絡(luò)使用了一種專業(yè)的人類Breakout游戲玩家使用的動(dòng)作,鑿穿整排磚塊,讓球沿著墻頂不停跳躍。
“這對(duì)我們來(lái)說(shuō),是一個(gè)很大的驚喜,”DeepMind的首席執(zhí)行官德米斯·哈薩比斯(Demis Hassabis)當(dāng)時(shí)說(shuō)道。“這一策略完全來(lái)自底層系統(tǒng)?!?/p>
人工智能,已經(jīng)顯示出它能夠像人類一樣進(jìn)行異常微妙的思考,掌握Breakout背后的內(nèi)在概念。因?yàn)樯窠?jīng)網(wǎng)絡(luò)松散地反映了人腦的結(jié)構(gòu),所以從理論上說(shuō),它們應(yīng)該在某些方面模仿我們自己的認(rèn)知方式。這一刻似乎證明了這個(gè)理論是正確的。
去年,位于舊金山的一家人工智能公司Vicorance的計(jì)算機(jī)科學(xué)家,提供了一個(gè)有趣的現(xiàn)實(shí)檢驗(yàn)。他們采用了一種類似DeepMind所用的人工智能,并在Breakout上進(jìn)行了訓(xùn)練。
結(jié)果很棒。但隨后,他們稍微調(diào)整了游戲的布局。在一次迭代中,他們將平板提得更高了;另一次迭代中,他們?cè)谏戏皆黾恿艘粋€(gè)牢不可破的區(qū)域。
人類玩家可以快速適應(yīng)這些變化,但神經(jīng)網(wǎng)絡(luò)卻不能。 這個(gè)看起來(lái)很聰明的人工智能,只能打出它花了數(shù)百場(chǎng)比賽掌握的Breakout的方法。 它不能應(yīng)對(duì)新變化。
“我們?nèi)祟惒粌H僅是模式識(shí)別器,”Vicarious的共同創(chuàng)始人之一、計(jì)算機(jī)科學(xué)家迪利普·喬治(Dileep George)告訴我。“我們也在為我們看到的東西建立模型。這些是因果模型——有我們對(duì)因果關(guān)系的理解?!?/p>
人類能夠推理,也會(huì)對(duì)我們周?chē)氖澜邕M(jìn)行邏輯推理,我們有大量的常識(shí)知識(shí)來(lái)幫助我們發(fā)現(xiàn)新的情況。當(dāng)我們看到一款與我們剛剛玩的游戲略有不同的Breakout游戲時(shí),我們會(huì)意識(shí)到,它可能有著大致相同的規(guī)則和目標(biāo)。
但另一方面,神經(jīng)網(wǎng)絡(luò)對(duì)Breakout一無(wú)所知。它所能做的就是遵循這個(gè)模式。當(dāng)模式改變時(shí),它無(wú)能為力。
深度學(xué)習(xí)是人工智能的主宰。在它成為主流以來(lái)的六年里,它已經(jīng)成為幫助機(jī)器感知和識(shí)別周?chē)澜绲闹饕绞健?/p>
它為Alexa的語(yǔ)音識(shí)別、Waymo的自動(dòng)駕駛汽車(chē)和谷歌的即時(shí)翻譯提供了動(dòng)力。從某些方面來(lái)說(shuō),Uber的網(wǎng)絡(luò)也是一個(gè)巨大的優(yōu)化問(wèn)題,它利用機(jī)器學(xué)習(xí)來(lái)找出乘客需要汽車(chē)的地方。中國(guó)科技巨頭百度,有2000多名工程師在神經(jīng)網(wǎng)絡(luò)人工智能上努力工作。
多年來(lái),深度學(xué)習(xí)看上去越來(lái)越好,不可阻擋地讓機(jī)器擁有像人一樣流暢、靈活的智力。
但是一些人認(rèn)為,深度學(xué)習(xí)正在面臨困境。他們說(shuō),單憑這一點(diǎn),它永遠(yuǎn)不會(huì)產(chǎn)生廣義上的智能,因?yàn)檎嬲袢祟愐粯拥闹悄?,不僅僅是模式識(shí)別。
我們需要開(kāi)始弄清楚如何讓人工智能具備常識(shí)。他們警告說(shuō),如果我們不這樣做,我們將會(huì)不斷地觸及深度學(xué)習(xí)的極限,就像視覺(jué)識(shí)別系統(tǒng),只要改變一些輸入,就會(huì)很容易被愚弄,比如,讓深度學(xué)習(xí)模型認(rèn)為烏龜就是一桿槍。
但他們說(shuō),如果我們成功了,我們將見(jiàn)證更安全、更有用的設(shè)備爆炸式增長(zhǎng)——比如在雜亂的家中自由行動(dòng)的醫(yī)療機(jī)器人、不會(huì)誤報(bào)的欺詐檢測(cè)系統(tǒng)等等。
但是,真正的推理在機(jī)器中是什么樣子的呢?如果深度學(xué)習(xí)不能幫助我們達(dá)到目的,那什么可以呢?
加里·馬庫(kù)斯(Gary Marcus)是紐約大學(xué)的心理學(xué)和神經(jīng)科學(xué)教授,現(xiàn)年48歲,戴著眼鏡,憂心忡忡。他可能是最著名的深度學(xué)習(xí)反對(duì)者。
馬庫(kù)斯第一次對(duì)人工智能感興趣,是在20世紀(jì)80年代和90年代,當(dāng)時(shí)神經(jīng)網(wǎng)絡(luò)還處于實(shí)驗(yàn)階段,從那以后,他就一直在做同樣的論證。
“我不只是來(lái)晚了,而且還想在派對(duì)上撒尿,”當(dāng)我在紐約大學(xué)附近的公寓遇見(jiàn)他時(shí),馬庫(kù)斯告訴我。(我們也是私人朋友。)“深度學(xué)習(xí)剛開(kāi)始爆發(fā)的時(shí)候,我就說(shuō)‘方向錯(cuò)了,伙計(jì)們!’”
那時(shí),深度學(xué)習(xí)背后的策略和現(xiàn)在是一樣的。比方說(shuō),你想要一臺(tái)機(jī)器來(lái)自己學(xué)習(xí)識(shí)別雛菊。首先,你需要編寫(xiě)一些算法“神經(jīng)元”,像三明治一樣,將它們層層連接起來(lái)(當(dāng)你使用多層時(shí),三明治會(huì)變得更厚或更深——因此是“深度”學(xué)習(xí))。
你在第一層輸入一個(gè)雛菊的圖像,它的神經(jīng)元會(huì)根據(jù)圖像是否像它以前看到的雛菊的例子而進(jìn)行判斷。然后,信號(hào)將移動(dòng)到下一層,在那里循環(huán)這個(gè)過(guò)程。最終,這些層會(huì)得出一個(gè)結(jié)論。
起初,神經(jīng)網(wǎng)絡(luò)只是盲目猜測(cè);它或多或少地讓生活從一張白紙開(kāi)始。關(guān)鍵是建立一個(gè)有用的反饋回路。每當(dāng)人工智能沒(méi)有識(shí)別出雛菊時(shí),那組神經(jīng)連接就會(huì)削弱導(dǎo)致錯(cuò)誤猜測(cè)的鏈接;如果它成功了,它會(huì)加強(qiáng)。
給定足夠的時(shí)間和足夠多的雛菊樣本,神經(jīng)網(wǎng)絡(luò)會(huì)變得更加精確。它學(xué)會(huì)了通過(guò)直覺(jué)來(lái)識(shí)別一些雛菊的模式,讓它每次都能識(shí)別出雛菊(而不是向日葵或菊花)。
隨著時(shí)間的推移,這一核心理念——從一個(gè)簡(jiǎn)單的網(wǎng)絡(luò)開(kāi)始,通過(guò)重復(fù)訓(xùn)練——得到了改進(jìn),似乎可以應(yīng)用到幾乎任何地方。
但是馬庫(kù)斯從未被說(shuō)服。對(duì)他來(lái)說(shuō),問(wèn)題就在于一張白紙:它假設(shè)人類純粹通過(guò)觀察周?chē)氖澜鐏?lái)建立他們的智力,機(jī)器也可以。
但是馬庫(kù)斯不認(rèn)為人類就是這樣工作的。他認(rèn)可諾姆·喬姆斯基( Noam Chomsky )的智力發(fā)展理論,他認(rèn)為人類天生就有學(xué)習(xí)的天賦,能夠掌握語(yǔ)言和解釋物質(zhì)世界,而不是一張白紙。
他指出,盡管有很多人認(rèn)為神經(jīng)網(wǎng)絡(luò)是智能的,但它似乎不像人類大腦那樣工作。首先,它們太需要數(shù)據(jù)了。
在大多數(shù)情況下,每個(gè)神經(jīng)網(wǎng)絡(luò)都需要數(shù)千或數(shù)百萬(wàn)個(gè)樣本來(lái)學(xué)習(xí)。更糟糕的是,每次你想讓神經(jīng)網(wǎng)絡(luò)識(shí)別一種新的項(xiàng)目,你都必須從頭開(kāi)始訓(xùn)練。一個(gè)識(shí)別金絲雀的神經(jīng)網(wǎng)絡(luò)在識(shí)別鳥(niǎo)鳴或人類語(yǔ)言方面沒(méi)有任絲毫用處。
“我們不需要大量的數(shù)據(jù)來(lái)學(xué)習(xí),”馬庫(kù)斯說(shuō)。他的孩子不需要看一百萬(wàn)輛車(chē)就能認(rèn)出車(chē)輛來(lái)。更好的是,他們可以“抽象化”,當(dāng)他們第一次看到拖拉機(jī)時(shí),他們會(huì)知道它有點(diǎn)像汽車(chē)。他們也可以進(jìn)行反事實(shí)的工作。
谷歌翻譯可以將法語(yǔ)翻譯成英語(yǔ)。但是它不知道這些話是什么意思。馬庫(kù)斯指出,人類不僅掌握語(yǔ)法模式,還掌握語(yǔ)法背后的邏輯。你可以給一個(gè)小孩一個(gè)假動(dòng)詞,比如pilk,她很可能會(huì)推斷過(guò)去式是 pilked。當(dāng)然,她以前沒(méi)見(jiàn)過(guò)這個(gè)詞。她沒(méi)有接受過(guò)這方面的“訓(xùn)練”。她只是憑直覺(jué)知道了語(yǔ)言運(yùn)作的一些邏輯,并能將其應(yīng)用到一個(gè)新的情況中。
“這些深度學(xué)習(xí)系統(tǒng)不知道如何整合抽象知識(shí),”馬庫(kù)斯說(shuō),他創(chuàng)立了一家公司,創(chuàng)造了用更少的數(shù)據(jù)進(jìn)行學(xué)習(xí)的人工智能(并在2016年將公司賣(mài)給了Uber)。
今年早些時(shí)候,馬庫(kù)斯發(fā)表了一份關(guān)于arXiv的白皮書(shū),認(rèn)為如果沒(méi)有一些新的方法,深度學(xué)習(xí)可能永遠(yuǎn)不會(huì)突破目前的局限。它需要的是一種推動(dòng)力——補(bǔ)充或內(nèi)置的規(guī)則,以幫助它對(duì)世界進(jìn)行推理。
奧倫·埃齊奧尼(Oren Etzioni)經(jīng)常面帶微笑。他是一位計(jì)算機(jī)科學(xué)家,在西雅圖經(jīng)營(yíng)著艾倫人工智能研究所(Allen Institute for Artificial Intelligence)。
在他明亮的辦公室里向我打招呼,領(lǐng)我走過(guò)一塊白板,上面潦草地寫(xiě)著對(duì)機(jī)器智能的思考。(“定義成功”,“任務(wù)是什么?”)在外面,年輕的人工智能研究員戴著耳機(jī),敲擊著鍵盤(pán)。
埃茨奧尼和他的團(tuán)隊(duì)正在研究常識(shí)問(wèn)題。他將此定義為兩個(gè)傳奇的人工智能時(shí)刻——1997年 IBM 的深藍(lán)(Deep Blue)擊敗象棋大師加里·卡斯帕羅夫(Garry Kasparov) ,以及去年DeepMind的AlphaGo擊敗世界頂尖圍棋選手李世石。(谷歌在2014年收購(gòu)了DeepMind。)
“有了深藍(lán),當(dāng)房間著火的時(shí)候,我們的程序可以做出超人一般的象棋棋步?!卑4膴W尼開(kāi)玩笑說(shuō)?!皩?duì)吧?完全缺乏背景??爝M(jìn)20年,當(dāng)房間著火的時(shí)候,我們有了一臺(tái)電腦,可以下出超人一般的圍棋棋步。”
當(dāng)然,人類沒(méi)有這個(gè)限制。如果發(fā)生火災(zāi),人們會(huì)拉響警報(bào),奔向大門(mén)。
換句話說(shuō),人類擁有關(guān)于這個(gè)世界的基本知識(shí)(火會(huì)燒東西) ,同時(shí)還有推理的能力(你應(yīng)該試著遠(yuǎn)離失控的火)。
為了讓人工智能真正像人類一樣思考,我們需要教它所有人都知道的東西,比如物理學(xué)(拋向空中的球會(huì)落下)或相對(duì)大小的東西(大象無(wú)法被放進(jìn)浴缸)。 在人工智能擁有這些基本概念之前,埃茨奧尼認(rèn)為人工智能無(wú)法進(jìn)行推理。
隨著保羅·艾倫(Paul Allen)投入了數(shù)億美元,埃茨奧尼和他的團(tuán)隊(duì)正在努力開(kāi)發(fā)一個(gè)常識(shí)推理層,以適應(yīng)現(xiàn)有的神經(jīng)網(wǎng)絡(luò)。(艾倫研究所是一個(gè)非營(yíng)利組織,所以他們發(fā)現(xiàn)的一切都將被公開(kāi),任何人都可以使用。)
他們面臨的第一個(gè)問(wèn)題,就是回答一個(gè)問(wèn)題:什么是常識(shí)?
埃茨奧尼把它描述為我們認(rèn)為理所當(dāng)然,但很少大聲說(shuō)出的關(guān)于世界的所有知識(shí)。他和他的同事創(chuàng)造了一系列基準(zhǔn)問(wèn)題,一個(gè)真正理性的人工智能應(yīng)該能夠回答:如果我把襪子放在抽屜里,它們明天會(huì)在那里嗎?如果我踩了別人的腳趾,他們會(huì)生氣嗎?
獲取這種知識(shí)的一種方法,是從人類那里提取。埃茨奧尼的實(shí)驗(yàn)室正在付費(fèi)給亞馬遜土耳其機(jī)器人上的眾包人員,以幫助他們制作常識(shí)性的陳述。
然后,研究團(tuán)隊(duì)會(huì)使用各種機(jī)器學(xué)習(xí)技術(shù)——一些老式的統(tǒng)計(jì)分析,一些深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)——基于這些陳述進(jìn)行訓(xùn)練。如果他們做得對(duì),埃茨奧尼相信他們可以生產(chǎn)出可重復(fù)使用的計(jì)算機(jī)推理“樂(lè)高積木”:一套能夠理解文字,一套能夠掌握物理知識(shí),等等。
崔葉金 (Yejin Choi)是埃茨奧尼團(tuán)隊(duì)研究常識(shí)的科學(xué)家之一,她負(fù)責(zé)了幾次眾包工作。 在一個(gè)項(xiàng)目中,她想開(kāi)發(fā)一種人工智能,能夠理解一個(gè)人的行為,或陳述出來(lái)其隱含的意圖或情感。
她首先研究了成千上萬(wàn)個(gè) Wiktionary 中的在線故事、博客和習(xí)語(yǔ)條目,提取出“短語(yǔ)事件”,比如“杰夫(Jeff)把羅杰(Roger)打昏了” 。然后,她會(huì)匿名記錄每個(gè)短語(yǔ)——“X把Y打昏”——并要求土耳其機(jī)器人平臺(tái)上的眾包人員描述X的意圖:他們?yōu)槭裁催@樣做?
當(dāng)她收集了25000個(gè)這樣的標(biāo)記句子后,她用它們訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)系統(tǒng),來(lái)分析它從未見(jiàn)過(guò)的句子,并推斷出句子的情緒或意圖。
充其量,新系統(tǒng)運(yùn)行的時(shí)候,只有一半時(shí)間是正常的。但是當(dāng)它正式運(yùn)行的時(shí)候,它展示了一些非常人性化的感知:給它一句像“奧倫(Oren)做了感恩節(jié)晚餐”這樣的話,它預(yù)測(cè)奧倫試圖給家人留下深刻印象。
“我們也可以對(duì)其他人的反應(yīng)進(jìn)行推理,即使他們沒(méi)有被提及,”崔說(shuō)?!八訶的家人可能會(huì)感到印象深刻和被愛(ài)?!?/p>
她的團(tuán)隊(duì)建立的另一個(gè)系統(tǒng)使用土耳其機(jī)器人平臺(tái)上的眾包人員在故事中標(biāo)記人們的心理狀態(tài);當(dāng)給定一個(gè)新的情況時(shí),由此產(chǎn)生的系統(tǒng)也可以得出一些“尖銳”的推論。
例如,有人告訴我,一名音樂(lè)教練對(duì)他的樂(lè)隊(duì)糟糕的表演感到憤怒,并說(shuō)“教練很生氣,把他的椅子扔了。人工智能會(huì)預(yù)測(cè)他們會(huì)“事后感到恐懼”,盡管這個(gè)故事沒(méi)有明確說(shuō)明這一點(diǎn)。
崔葉金、埃茨奧尼和他們的同事并沒(méi)有放棄深度學(xué)習(xí)。事實(shí)上,他們認(rèn)為這是一個(gè)非常有用的工具。但是,他們不認(rèn)為有捷徑,可以說(shuō)服人們明確陳述我們所有人都擁有的怪異、無(wú)形、隱含的知識(shí)。
深度學(xué)習(xí)是垃圾輸入,垃圾輸出。僅僅給一個(gè)神經(jīng)網(wǎng)絡(luò)提供大量新聞文章是不夠的,因?yàn)樗粫?huì)吸取未陳述的知識(shí),這是作家們不愿提及的顯而易見(jiàn)的事情。
正如崔葉金所說(shuō),“人們不會(huì)說(shuō)‘我的房子比我大’?!睘榱藥椭鉀Q這個(gè)問(wèn)題,她讓土耳其機(jī)器人平臺(tái)上的眾包人員分析了1100個(gè)常見(jiàn)動(dòng)詞所隱含的物理關(guān)系,例如“X扔了Y”。這反過(guò)來(lái)又提供了一個(gè)簡(jiǎn)單的統(tǒng)計(jì)模型,可以用“奧倫扔了一個(gè)球”這個(gè)句子來(lái)推斷球一定比奧倫小。
另一個(gè)挑戰(zhàn)是視覺(jué)推理。阿尼魯達(dá)·凱姆巴維(Aniruddha Kembhavi)是埃茨奧尼團(tuán)隊(duì)中的另一位人工智能科學(xué)家,他向我展示了一個(gè)在屏幕上漫步的虛擬機(jī)器人。 艾倫研究所的其他科學(xué)家建造了類似模擬人生的房子,里面裝滿了日常用品——廚房櫥柜里裝滿了碗碟,沙發(fā)可以隨意擺放,并符合現(xiàn)實(shí)世界中的物理定律。
然后他們?cè)O(shè)計(jì)了這個(gè)機(jī)器人,它看起來(lái)像是一個(gè)有手臂的深灰色垃圾筒,研究人員告訴它,讓它搜尋某些物品。在完成數(shù)千項(xiàng)任務(wù)后,這個(gè)神經(jīng)網(wǎng)絡(luò)獲得了在現(xiàn)實(shí)生活中生活的基礎(chǔ)。
“當(dāng)你問(wèn)它‘我有西紅柿嗎?它不會(huì)打開(kāi)所有的櫥柜。它更傾向去打開(kāi)冰箱,”凱姆巴韋說(shuō)?!盎蛘撸绻阏f(shuō)‘給我找我的鑰匙’,它不會(huì)試圖拿起電視。它會(huì)去看電視機(jī)后面。它已經(jīng)知道,電視機(jī)通常不會(huì)被拿走?!?/p>
埃茨奧尼和他的同事希望這些不同的組成部分——崔葉金的語(yǔ)言推理、視覺(jué)思維,以及他們正在做的讓人工智能掌握教科書(shū)科學(xué)信息的其他工作——最終能夠結(jié)合在一起。
但是需要多長(zhǎng)時(shí)間,最終的產(chǎn)品會(huì)是什么樣子?他們不知道。他們正在建立的常識(shí)系統(tǒng)仍然會(huì)出錯(cuò),有時(shí)甚至超過(guò)一半的概率。
崔葉金估計(jì),她將需要大約一百萬(wàn)人工語(yǔ)言來(lái)訓(xùn)練她的各種語(yǔ)言解析器。 建立常識(shí)似乎異乎尋常地困難。
制造機(jī)器還有其他合理的方式,但它們的勞動(dòng)密集程度更高。 例如,你可以坐下來(lái),用手寫(xiě)出所有要告訴機(jī)器世界如何運(yùn)作的規(guī)則。 這就是道格·萊納特(Doug Lenat)的 Cyc 項(xiàng)目的工作原理。
34年來(lái),萊納特雇傭了一個(gè)工程師和哲學(xué)家團(tuán)隊(duì),來(lái)編寫(xiě)2500萬(wàn)條常識(shí)性規(guī)則,比如"“水是濕的”或者“大多數(shù)人都知道他們朋友的名字”。這讓Cyc能夠推斷:“如果你的襯衫濕了,所以你可能是在雨中?!?優(yōu)勢(shì)在于,萊納特能夠精確地控制輸入 Cyc 數(shù)據(jù)庫(kù)的內(nèi)容; 而眾包知識(shí)并非如此。
這種由粗暴的手動(dòng)行為做出來(lái)的人工智能,在深度學(xué)習(xí)的世界中已經(jīng)變得不流行。這在一定程度上是因?yàn)樗赡堋按嗳酢保喝绻麤](méi)有正確的世界規(guī)則,人工智能可能會(huì)陷入困境。這就是程式化的聊天機(jī)器人如此“智障”的原因;如果如果沒(méi)有明確告訴它們?nèi)绾位卮鹨粋€(gè)問(wèn)題,它們沒(méi)有辦法推理出來(lái)。
Cyc的能力比聊天機(jī)器人更強(qiáng),并且已經(jīng)經(jīng)過(guò)批準(zhǔn),可以用于醫(yī)療保健系統(tǒng)、金融服務(wù)和軍事項(xiàng)目。但是這項(xiàng)工作進(jìn)展非常緩慢,而且耗資巨大。萊納特說(shuō)開(kāi)發(fā)Cyc花費(fèi)了大約2億美元。
但是,一點(diǎn)一點(diǎn)地進(jìn)行手工編程可能只是復(fù)制一些固有的知識(shí),根據(jù)喬姆斯基(Chomskyite)的觀點(diǎn),這是人類大腦擁有的知識(shí)。
這就是迪利普·喬治和研究人員對(duì)Breakout所做的事情。為了創(chuàng)造一個(gè)不會(huì)面對(duì)游戲布局變化而變“智障”的人工智能,他們放棄了深入學(xué)習(xí),建立了一個(gè)包含硬編碼基本假設(shè)的系統(tǒng)。
喬治告訴我,他們的人工智能不費(fèi)吹灰之力就學(xué)會(huì)了“物體是存在的,物體之間有相互作用,一個(gè)物體的運(yùn)動(dòng)與其和其他物體之間的碰撞有因果關(guān)系。”
在Breakout中,這套系統(tǒng)發(fā)展出了衡量不同行動(dòng)過(guò)程及其可能結(jié)果的能力。但這也起到了相反的作用。如果人工智能想要打破屏幕最左上角的一個(gè)磚塊,它會(huì)理性地將平板放在最右邊的角落。
這意味著,當(dāng)Vicarious改變游戲的規(guī)則時(shí)——添加新磚塊或提升平板——系統(tǒng)會(huì)得到補(bǔ)償。 它似乎抓住了一些關(guān)于 Breakout 本身的通用性理解。
顯然,這種人工智能在工程中存在權(quán)衡。 可以說(shuō),精心設(shè)計(jì)和仔細(xì)規(guī)劃,以精確找出將什么預(yù)先設(shè)定的邏輯輸入到系統(tǒng)中,是一個(gè)更艱苦的工作。 在設(shè)計(jì)一個(gè)新系統(tǒng)時(shí),很難在速度和精度之間取得恰當(dāng)?shù)钠胶狻?/p>
喬治說(shuō),他尋找最小的數(shù)據(jù)集“放入模型,以便它能夠快速學(xué)習(xí)。”你需要的假設(shè)越少,機(jī)器做決策的效率就越高。
一旦你訓(xùn)練了一個(gè)深度學(xué)習(xí)模型來(lái)識(shí)別貓,你就可以給它看一只它從未見(jiàn)過(guò)的俄羅斯藍(lán)貓,然后它就會(huì)立刻給出結(jié)論——這是一只貓。 在處理了數(shù)百萬(wàn)張照片之后,它不僅知道是什么讓一只貓變成了貓,還知道識(shí)別一只貓的最快方法。
相比之下,Vicarious的人工智能速度較慢,因?yàn)殡S著時(shí)間的推移,它會(huì)主動(dòng)地做出邏輯推論。
當(dāng)Vicarious的人工智能運(yùn)行良好時(shí),它可以從更少的數(shù)據(jù)中學(xué)習(xí)。喬治的團(tuán)隊(duì)通過(guò)識(shí)別扭曲的字體形象,創(chuàng)造一種人工智能來(lái)突破神經(jīng)網(wǎng)絡(luò)上“我不是機(jī)器人”的障礙。
就像Breakout系統(tǒng)一樣,他們預(yù)先給人工智能賦予了一些能力,比如幫助它識(shí)別字符的知識(shí)。隨著引導(dǎo)就位,他們只需要在人工智能學(xué)會(huì)以90.4 %的準(zhǔn)確率破解驗(yàn)證碼之前,在260張圖像上訓(xùn)練人工智能。相比之下,神經(jīng)網(wǎng)絡(luò)需要在超過(guò)230萬(wàn)張圖像上訓(xùn)練,才能破解驗(yàn)證碼。
其他人,正在以不同的方式將常識(shí)般的結(jié)構(gòu)構(gòu)建到神經(jīng)網(wǎng)絡(luò)中。例如,DeepMind的兩名研究人員最近創(chuàng)建了一個(gè)混合系統(tǒng):部分是深度學(xué)習(xí),部分是更傳統(tǒng)的技術(shù)。他們將這個(gè)系統(tǒng)稱為歸納邏輯編程。目標(biāo)是創(chuàng)造出能夠進(jìn)行數(shù)學(xué)推理的東西。
他們用兒童游戲“fizz-buzz”來(lái)訓(xùn)練它,在這個(gè)游戲中,你從1開(kāi)始向上數(shù),如果一個(gè)數(shù)字可以被3整除,就說(shuō)“fizz”,如果它可以被5整除,就說(shuō)“buzz”。一個(gè)普通的神經(jīng)網(wǎng)絡(luò),只能處理它以前見(jiàn)過(guò)的數(shù)字;如果把它訓(xùn)練到100分鐘,它就會(huì)知道99時(shí)該“fizz”,100時(shí)“buzz”。
但它不知道如何處理105。相比之下,DeepMind的混合深度思維系統(tǒng)似乎理解了這個(gè)規(guī)則,并在數(shù)字超過(guò)100時(shí)沒(méi)有出現(xiàn)任何問(wèn)題。愛(ài)德華·格雷芬斯特(Edward Grefenstette)是開(kāi)發(fā)這種混合系統(tǒng)的DeepMind程序員之一,他說(shuō),“你可以訓(xùn)練出一些系統(tǒng),這些系統(tǒng)會(huì)以一種深度學(xué)習(xí)網(wǎng)絡(luò)無(wú)法獨(dú)自完成的方式進(jìn)行推理?!?/p>
深度學(xué)習(xí)的先驅(qū)、Facebook人工智能研究部門(mén)的現(xiàn)任負(fù)責(zé)人楊立昆(Yann?LeCun)對(duì)許多針對(duì)這個(gè)領(lǐng)域的批評(píng)表示贊同。他承認(rèn),它需要太多的訓(xùn)練數(shù)據(jù),不能推理,也不具備常識(shí)。
“在過(guò)去的四年里,我基本上在一遍又一遍地重復(fù)這句話,”他提醒我。但是他仍然堅(jiān)信,進(jìn)行正確的深入學(xué)習(xí),可以獲取答案。他不同意喬姆斯基對(duì)人類智力的看法。他認(rèn)為,人類大腦是通過(guò)互動(dòng)而不是內(nèi)在的規(guī)則來(lái)發(fā)展出推理能力的。
“如果你思考一下動(dòng)物和嬰兒是如何學(xué)習(xí)的,在生命的最初幾分鐘、幾小時(shí)、幾天里,學(xué)很多東西都學(xué)得很快,以至于看起來(lái)像是天生的,”他指出?!暗聦?shí)上,他們不需要硬編碼,因?yàn)樗鼈兛梢院芸鞂W(xué)會(huì)一些東西?!?/p>
從這個(gè)角度來(lái)看,為了了解世界的物理規(guī)律,一個(gè)嬰兒只需要四處移動(dòng)它的頭,對(duì)傳入的圖像進(jìn)行數(shù)據(jù)處理,并得出結(jié)論,景深就是這么一回事。
盡管如此,楊立昆承認(rèn),目前還不清楚哪些途徑可以幫助深度學(xué)習(xí)走出低谷。有可能是“對(duì)抗性”神經(jīng)網(wǎng)絡(luò),一種相對(duì)新的技術(shù),其中一個(gè)神經(jīng)網(wǎng)絡(luò)試圖用虛假數(shù)據(jù)欺騙另一個(gè)神經(jīng)網(wǎng)絡(luò),迫使第二個(gè)神經(jīng)網(wǎng)絡(luò)發(fā)展出極其微妙的圖像、聲音和其他輸入的內(nèi)部表征。
它的優(yōu)勢(shì)是沒(méi)有“數(shù)據(jù)缺乏”的問(wèn)題。你不需要收集數(shù)百萬(wàn)個(gè)數(shù)據(jù)來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò),因?yàn)樗鼈兪峭ㄟ^(guò)相互學(xué)習(xí)來(lái)學(xué)習(xí)的。(作者注:一種類似的方法正在被用來(lái)制作那些讓人深感不安的“深度偽造”(deepfake)視頻,在這些視頻中,有些人似乎在說(shuō)或做一些他們沒(méi)有說(shuō)或做的事情。)
我在Facebook位于紐約的人工智能實(shí)驗(yàn)室的辦公室里遇見(jiàn)了楊立昆。馬克·扎克伯格(Mark Zuckerberg)在2013年招募了他,承諾實(shí)驗(yàn)室的目標(biāo)將是推動(dòng)人工智能突破極限,而不僅僅是對(duì)Facebook的產(chǎn)品進(jìn)行微小的調(diào)整。像學(xué)術(shù)實(shí)驗(yàn)室一樣,楊立昆和他的研究人員可以將他們的研究成果發(fā)表出來(lái),供其他人參閱。
楊立昆仍然保留了他的法國(guó)本土口音,他站在白板前,精力充沛地勾畫(huà)出可能推動(dòng)深入學(xué)習(xí)進(jìn)步的理論。對(duì)面的墻上掛著一套斯坦利·庫(kù)布里克(Stanley Kubrick)《2001:太空漫游》(2001: A Space Odyssey)中的華麗畫(huà)作——漂浮在太空深處的主宇宙飛船,一艘繞地球運(yùn)行的輪式飛船?!芭?,是的,”當(dāng)我指出他們時(shí),楊立昆說(shuō),他們重印了庫(kù)布里克為這部電影制作的藝術(shù)品。
借著周?chē)膱D片來(lái)討論類人人工智能,讓人感到莫名的不安,因?yàn)?001年的HAL 9000,一個(gè)類人人工智能,是一個(gè)高效的殺手。
這指向了一個(gè)更深層次的哲學(xué)問(wèn)題,超越了人工智能發(fā)展方向的爭(zhēng)論:制造更聰明的人工智能是一個(gè)好主意嗎?Vicarious的系統(tǒng)破解了驗(yàn)證碼,但驗(yàn)證碼的意義在于防止機(jī)器人模仿人類。
一些人工智能研究者擔(dān)心,與人類交談并理解人類心理的能力可能會(huì)使惡人工智能變得極其危險(xiǎn)。 牛津大學(xué)的尼克 · 博斯特龍(Nick Bostrom)敲響了創(chuàng)造"超級(jí)智能"(superintelligence)的警鐘。超級(jí)智能是一種自我改進(jìn)并快速超越人類的人工智能,能夠在各個(gè)方面超越我們。 (他認(rèn)為積聚控制力的一種方式是通過(guò)操縱人們——擁有"心智理論"對(duì)此會(huì)非常有用。)
埃隆·馬斯克(Elon Musk)對(duì)這種危險(xiǎn)深信不疑,他資助了致力于安全人工智能理念的組織OpenAI。
這樣的未來(lái)不會(huì)讓埃齊奧尼晚上失眠。他不擔(dān)心人工智能會(huì)變成惡意的超級(jí)智能。“我們擔(dān)心會(huì)有什么東西會(huì)接管這個(gè)世界,”他嘲笑道,“那甚至不能自己決定再下一盤(pán)棋?!蹦壳?,還不清楚人工智能會(huì)如何發(fā)展出這些意愿,也不清楚這種意愿軟件中會(huì)是什么樣子。深度學(xué)習(xí)可以征服國(guó)際象棋,但它沒(méi)有天生的下棋意愿。
令他擔(dān)憂的是,是目前的人工智能非常無(wú)能。因此,雖然我們可能不會(huì)創(chuàng)造出具有自我保護(hù)智能的HAL,但他說(shuō),“致命武器+無(wú)能的人工智能很容易殺人?!边@也是為什么埃齊奧尼如此堅(jiān)決地要給人工智能灌輸一些常識(shí)的部分原因。他認(rèn)為,最終,這將使人工智能更加安全;不應(yīng)該大規(guī)模屠殺人類,也是一種常識(shí)。(艾倫研究所的一部分任務(wù)是使人工智能更加合理化,從而使其更加安全。)
埃齊奧尼指出,對(duì)人工智能的反烏托邦式的科幻愿景,其風(fēng)險(xiǎn)要小于短期的經(jīng)濟(jì)轉(zhuǎn)移。如果人工智能在常識(shí)方面做得更好,它就能更快地完成那些目前僅僅是模式匹配深度學(xué)習(xí)所難以完成的工作:司機(jī)、出納員、經(jīng)理、各行各業(yè)的分析師,甚至是記者。
但真正有理性的人工智能造成的破壞甚至可能會(huì)超出經(jīng)濟(jì)范圍。 想象一下,如果散布虛假政治信息的機(jī)器人能夠運(yùn)用常識(shí),在 Twitter、 Facebook 或大量電話中顯得與人類毫無(wú)區(qū)別,那該會(huì)是什么樣子。
馬庫(kù)斯同意人工智能具備推理能力會(huì)有危險(xiǎn)。但是,他說(shuō),這樣帶來(lái)的好處是巨大的。人工智能可以像人類一樣推理和感知,但卻能以計(jì)算機(jī)的速度運(yùn)算,它可以徹底改變科學(xué),以我們?nèi)祟惒豢赡艿乃俣日页鲆蚬P(guān)系。
除了擁有大量的機(jī)器人知識(shí)之外,它可以像人類一樣進(jìn)行心理實(shí)驗(yàn),可以遵循“if - then”鏈條,思考反事實(shí)?!袄?,最終我們可能能夠治愈精神疾病,”馬庫(kù)斯補(bǔ)充道?!叭斯ぶ悄芑蛟S能夠理解這些復(fù)雜的蛋白質(zhì)生物級(jí)聯(lián),這些蛋白質(zhì)參與到了大腦的構(gòu)建中,會(huì)讓它們正常工作或不正常工作?!?/p>
坐在《2001:太空漫游》的照片下面,楊立昆自己提出了一個(gè)“異端”觀點(diǎn)。當(dāng)然,讓人工智能更加人性化有助于人工智能給我們的世界提供幫助。但是直接復(fù)制人類的思維方式呢?沒(méi)有人清楚這是否有用。我們已經(jīng)有了像人類一樣思考的人;也許智能機(jī)器的價(jià)值在于它們與我們完全不同。
“如果他們有我們沒(méi)有的能力,他們會(huì)更有用,”他告訴我。“那么他們將成為智力的放大器。所以在某種程度上,你希望他們擁有非人類形式的智力......你希望他們比人類更理性?!睋Q句話說(shuō),也許讓人工智能有點(diǎn)人工是值得的。
原文鏈接:https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/編譯組出品。編輯:郝鵬程
聯(lián)系客服