谷歌的AlphaGo在戰(zhàn)勝韓國圍棋名將李世石后名聲大作。比賽時,谷歌團隊必須讓AlphaGo位于美國中西部的服務(wù)器通過谷歌云服務(wù)連接到韓國首爾的對局室,一旦服務(wù)器連接失敗,那么AlphaGo將完全無法運轉(zhuǎn),失去“思考”的能力。
而這個痛點之一如今也許得到了解決。
在這兩天舉行的上??撇?,中國類腦強人工智能初創(chuàng)公司西井科技提出了“片上學(xué)習(xí)”(On-ChipLearning)的概念,并宣布團隊已經(jīng)研制出了可以進行實際應(yīng)用的“片上學(xué)習(xí)”系統(tǒng)Wiki。由于能耗低、速度快,“片上學(xué)習(xí)”被認(rèn)為是繼目前的“在線學(xué)習(xí)”之后最有市場前景、應(yīng)用最廣泛的機器學(xué)習(xí)的方式。
“片上學(xué)習(xí)”vs“在線學(xué)習(xí)”
從當(dāng)前的全球市場來看,機器學(xué)習(xí)主要還是通過“在線學(xué)習(xí)”(On-linelearning)技術(shù)來實現(xiàn)提升的,即使用大規(guī)模高性能計算平臺進行模型訓(xùn)練,然后將訓(xùn)練好的模型再直接部署在硬件中實現(xiàn)產(chǎn)品的優(yōu)化升級。目前該技術(shù)已經(jīng)廣泛應(yīng)用到人工智能領(lǐng)域,并且在視覺和大數(shù)據(jù)分析上取得了有效的突破。谷歌的AlphaGo就是“在線學(xué)習(xí)”的典型。
相比“在線學(xué)習(xí)”而言,“片上學(xué)習(xí)”又往前跨了一大步,這意味著機器學(xué)習(xí)能在硬件端直接完成,通過硬件層面的不斷“自我學(xué)習(xí)”和“自我提高”,實現(xiàn)高效率、低功耗、可本地化處理數(shù)據(jù)、計算機小型化等好處。
西井科技CEO譚黎敏向《第一財經(jīng)日報》表示:“‘片上學(xué)習(xí)’就好像學(xué)生身邊時刻跟隨著一位‘私教’,直接在芯片上學(xué)習(xí)就可測試訓(xùn)練成果,而‘在線學(xué)習(xí)’則好比學(xué)生定期去‘學(xué)?!险n,回家后做作業(yè)來測試學(xué)習(xí)效果?!?/p>
譚黎敏在現(xiàn)場給記者做了演示,在一萬多幅不同畫風(fēng)的油畫中隨意點擊幾種畫風(fēng),在硬件端進行“片上學(xué)習(xí)”后,計算機能在短短1秒內(nèi)自動完成1000多張圖片的分類。
在這期間,芯片可隨時中斷學(xué)習(xí),以測試學(xué)習(xí)效果。隨著芯片學(xué)習(xí)進度的推進,油畫識別與分類的正確率將逐步上升,直至經(jīng)過8至10秒的一段完整學(xué)習(xí)后,識別的正確率接近100%。即便是浸潤藝術(shù)多年的畫家也很難在如此短的時間里做出正確率如此高的判斷。
這個叫做Wiki-paintings的油畫庫是自2014年起加州理工大學(xué)SergeyKarayev等人所收集來的畫作,此后又有全球不少團隊加入機器快速識別、分類的研究中,以此來檢驗機器學(xué)習(xí)的成果,從而推動了“片上學(xué)習(xí)”技術(shù)的發(fā)展。
擺脫馮·諾依曼架構(gòu)
在科博會中央大廳西京科技的展臺里,記者看到了一塊黑色的一平方厘米大小的芯片?!捌蠈W(xué)習(xí)”所有的奧秘都集中在這塊小小的芯片上,它有一個聽起來非常神秘的名字——“DeepSouth類腦神經(jīng)元芯片”。譚黎敏告訴記者,這款芯片是全球繼IBMTruenorth之后的第二顆類腦芯片。
除此之外,西井科技還展示了“西井大腦”,這是百億神經(jīng)元人腦模擬器。2012年,谷歌曾用16000片電腦處理器(CPU)搭建了10億神經(jīng)元模擬器,被命名為“谷歌大腦”。
西井科技的工作人員向記者介紹,“西井大腦”是通過世界前沿交叉學(xué)科——神經(jīng)形態(tài)工程學(xué)原理搭建,整個“西井大腦”只有一臺傳統(tǒng)電腦機箱那么大,也正是這個看起來并不起眼的家伙創(chuàng)造連接了擁有100億神經(jīng)元的神經(jīng)網(wǎng)格來模擬人類大腦的運行方式。它能通過使用電路去直接模擬人類的“神經(jīng)元”形態(tài),建立起神經(jīng)網(wǎng)絡(luò)中“神經(jīng)元”與“神經(jīng)元”之間的連接,并通過依靠這些“神經(jīng)元”來處理信息,用脈沖spike來傳遞信息。
而兩者最本質(zhì)的區(qū)別在于,“西井大腦”已完全擺脫了馮·諾依曼計算機架構(gòu),使用的是電路模擬“神經(jīng)元”的方法,而“谷歌大腦”卻仍使用了傳統(tǒng)計算機結(jié)構(gòu)由16000片CPU堆砌而成。
馮·諾依曼理論主要核心為數(shù)字計算機的數(shù)制采用二進制,即0和1;同時,計算機是按照程序順序執(zhí)行,也就是所謂的“串聯(lián)”。而真正的人腦神經(jīng)元模式則為“并聯(lián)”,這就是為什么人類可以同步將諸如視覺圖像信息神經(jīng)元、邏輯思維判斷神經(jīng)元與人類“自我學(xué)習(xí)”的能力等自然結(jié)合完成相關(guān)“任務(wù)”。
譚黎敏舉例說,比如:當(dāng)一個人面前同時出現(xiàn)了一本雜志與一份報紙,普通正常人會在一瞬間立即完成對雜志與報紙這兩者屬性的基本判斷,這就是由于我們大腦內(nèi)視覺圖像信息神經(jīng)元、邏輯思維判斷神經(jīng)元與人類“自我學(xué)習(xí)”的能力一瞬間“并行”作用的結(jié)果。而這與馮·諾依曼理論的“串聯(lián)”有完全的不同。
有望參與“歐盟腦計劃”
“未來無論是在移動智能終端、家用智能終端或是大數(shù)據(jù)專用服務(wù)器等多領(lǐng)域,‘片上學(xué)習(xí)’都將展現(xiàn)其獨有且強大的優(yōu)勢?!币呀?jīng)投了西井科技三輪累計上千萬人民幣的十維資本合伙人張軍對《第一財經(jīng)日報》記者表示,“比如自動駕駛技術(shù),目前的自動駕駛的問題在于它識別物體的精度不高,精度不高是由于處理數(shù)據(jù)的能力達不到所致。目前包括特斯拉在內(nèi)的自動駕駛技術(shù)都是基于GPU的算法,GPU還是基于馮·諾依曼架構(gòu),所以效率和能耗遠遠不能和人腦相比。如果未來要大規(guī)模部署人工智能而且要實現(xiàn)低能耗,不去突破馮·諾依曼體系,是沒有前途的?!?/p>
他還介紹,目前美國和歐洲都已經(jīng)有類腦計劃,雙方各投資了100億美元和100億歐元在神經(jīng)擬態(tài)領(lǐng)域進行突破?!氨热鏘BM的Truenorth就是全球第一款百萬神經(jīng)元人腦芯片?!睆堒妼Α兜谝回斀?jīng)日報》記者表示,“所謂神經(jīng)形態(tài)工程,就是把腦科學(xué)和芯片制造技術(shù)結(jié)合起來的混合科學(xué)。歐洲腦計劃和美國腦計劃都是在不久前推出的。IBM的Truenorth就是一個產(chǎn)品成果。但是歐洲腦計劃目前還沒有大規(guī)模的產(chǎn)品產(chǎn)出,西井已經(jīng)有產(chǎn)品了,未來幾方可能考慮和西井合作,使用其脈沖神經(jīng)網(wǎng)絡(luò)技術(shù)。”
就在兩周前,譚黎敏訪問了位于瑞士日內(nèi)瓦的幾位歐盟腦計劃核心領(lǐng)導(dǎo)人。盡管他沒有透露西井將如何參與歐盟腦計劃的項目,但他表示“在不久后即將發(fā)布有關(guān)雙方在一些潛在合作方向的探索”。
在西井的展臺上,記者還發(fā)現(xiàn)了軟銀中國的投資人周曄。他對《第一財經(jīng)日報》記者表示:“軟銀中國對人工智能領(lǐng)域也非常感興趣,但是目前還沒有參與西井科技的投資。聽公司的介紹感覺這會是一個世界級的項目,但是還是要看最后能做成什么樣?!睋?jù)了解,軟銀中國旗下未有人工智能領(lǐng)域的相關(guān)投資。
聯(lián)系客服