九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
英特爾AI產(chǎn)品事業(yè)部CTO專訪:谷歌TPU表明純GPU不是最佳架構(gòu)

新智元原創(chuàng)  

作者:聞菲


【新智元導(dǎo)讀】去年,英特爾以 4 億美元收購深度學(xué)習(xí)芯片研發(fā)公司 Nervana,將其作為公司深度學(xué)習(xí)的核心,并圍繞Nervana 在今年年初成立統(tǒng)一的人工智能部門。日前,該部門負責(zé)人 Amir 接受新智元專訪,針對英偉達GPU和谷歌的TPU談到了他對目前AI芯片市場格局的看法和相關(guān)技術(shù)發(fā)展態(tài)勢。他認為,深度學(xué)習(xí)模型在某種程度上可能朝著暴力計算發(fā)展。深度學(xué)習(xí)將向兩大方向發(fā)展:一是越來越強的計算力,一是整合異構(gòu)計算。谷歌 TPU 和 TensorFlow 的優(yōu)勢只是暫時的,英特爾正在開發(fā)我們認為比 TPU 第二代更好的芯片。



2016 年 8 月,英特爾宣布以 4 億美元的金額收購深度學(xué)習(xí)芯片公司 Nervana Systems,被外界解讀為英特爾布局深度學(xué)習(xí)的重要信號。


一年以來,英特爾圍繞 Nervana 做了許多重要的策略調(diào)整:3 月 24 日新智元曾報道,英特爾組建了一個統(tǒng)一的 AI 部門 the ArtificialIntelligence Products Group (AIPG),由 Nervana 的 CEONaveen Rao 統(tǒng)領(lǐng)。 產(chǎn)品方面,英特爾計劃將 Nervana 技術(shù)融入英特爾的處理器產(chǎn)品線,這個計劃被稱為 Knights Crest,該計劃被英特爾寄予厚望,是其在深度學(xué)習(xí)上發(fā)力的重要籌碼。


Nervana 已經(jīng)成為英特爾人工智能技術(shù)實力的代名詞之一。Nervana 創(chuàng)始人擁有獨特背景,是高通神經(jīng)網(wǎng)絡(luò)項目研發(fā)負責(zé)人。Nervana 創(chuàng)業(yè)初期以 GPU 技術(shù)見長,原本的戰(zhàn)略是利用 GPU 建立軟件生態(tài),然后再把自己的芯片對接到這個生態(tài)上,以便用戶可以順利對接。為此,Nervana 提出了和 Tensorflow 競爭的框架 Neon,Neon 的 GPU 優(yōu)化做得比英偉達還好。


就在英特爾利用 Nervana 抓緊人工智能布局的時候,人工智能芯片市場也在悄然發(fā)生轉(zhuǎn)變,今年 5 月的 I/O 大會上,谷歌推出第二代 TPU,并且通過云服務(wù)供用戶使用,第二代 TPU 新增了訓(xùn)練的功能。不僅如此,谷歌的用戶還能通過專門的網(wǎng)絡(luò),在云端利用 TPU 構(gòu)建機器學(xué)習(xí)的超級計算機。 


另一方面,在 GPU 市場上占據(jù)主導(dǎo)地位的英偉達也宣布,將推出新產(chǎn)品 Volta GPU 速深度學(xué)習(xí)的性能比 TPU 更好。 


CPU、GPU 和以 TPU為代表的專用芯片構(gòu)成了現(xiàn)在深度學(xué)習(xí)上的三大芯片力量,而它們背后的三大公司——英特爾、英偉達和谷歌都在構(gòu)建基于自己特長的生態(tài),三家公司不僅在芯片,而且在云端和軟件框架上也存在直接競爭,整個市場一片火熱。


作為一家老牌巨頭,英特爾很少公開談?wù)撟约涸谏疃葘W(xué)習(xí)上技術(shù)與產(chǎn)品布局。7 月 5 日,新智元采訪了英特爾人工智能產(chǎn)品事業(yè)部首席技術(shù)官 Amir Khosrowshahi。這是Amir 首次接受國內(nèi)媒體機構(gòu)的深度專訪。



 Amir Khosrowshahi 在哈佛大學(xué)獲得了物理學(xué)與數(shù)學(xué)的學(xué)士學(xué)位以及物理學(xué)碩士學(xué)位,并在加州大學(xué)伯克利分校獲得了計算神經(jīng)學(xué)博士學(xué)位。Amir 在2016年隨著英特爾收購 Nervana Systems 加入了英特爾,此前是 Nervana的聯(lián)合創(chuàng)始人和首席技術(shù)官。在 2014 年創(chuàng)立 Nervana 之前,Amir 曾在高通公司的神經(jīng)形態(tài)計算部門,從事了一年的模擬 VLSI 傳感器研究。他曾有 5 年就讀于加州大學(xué)伯克利分校,是 Redwood 理論神經(jīng)學(xué)中心的研究員。他在Redwood的研究領(lǐng)域包括實驗神經(jīng)科學(xué)、機器學(xué)習(xí)、分布式計算和計算機視覺。


Amir 認為人工智能和深度學(xué)習(xí)領(lǐng)域發(fā)展很快,谷歌 TPU 和 TensorFlow 的優(yōu)勢只是暫時的,英特爾有更好的產(chǎn)品。芯片或者說處理器只是構(gòu)建成功機器學(xué)習(xí)解決方案很小的一方面,從生產(chǎn)到制造到銷售一整套流程,要配合才能成功。最關(guān)鍵的是,英特爾不需要與谷歌競爭,“谷歌、Facebook、亞馬遜、百度……都是英特爾的客戶,所有機器學(xué)習(xí)框架及其開發(fā)者社區(qū),英特爾都樂意支持”。對于市場上相互競爭的框架,以及這些框架和英特爾 Neon 間的競爭,Amir 表示“在英特爾,你能與這些不同的公司都合作”,而不用去管這些公司彼此之間爭得你死我活。


關(guān)于英特爾內(nèi)部重量級的深度學(xué)習(xí)產(chǎn)品 Knights Crest,Amir 說,這是一個長期的項目,最先與世人見面的將是預(yù)計于今年下半年推出的 28 納米芯片 Lake Crest。據(jù) Amir Khosrowshahi 透露,Lake Crest 的特點是有很強的原始計算力(Raw Compute),“是你能在一塊芯片上放的原始計算力的極限”。


Amir 力挺 CPU。現(xiàn)在主流的觀點是,CPU 處理已經(jīng)不能滿足對計算力的需求,大家都在尋找 CPU 之外可以勝任的協(xié)處理器架構(gòu),業(yè)內(nèi)最看好的是英偉達的 GPU。但是 Amir 認為,谷歌 TPU 的出現(xiàn)表明或許純 GPU 并不是最適合的架構(gòu)。他認為隨著人工智能發(fā)展,CPU 不僅不會被推到角落,還會愈發(fā)重要。他以 AlpahGo 有機結(jié)合神經(jīng)網(wǎng)絡(luò)和蒙特卡咯搜索樹的綜合架構(gòu)為例:如果要做深度學(xué)習(xí) 演化搜索 蒙特卡洛樹搜索 ……,CPU 足夠靈活?!癗ervana 在初創(chuàng)公司時曾經(jīng)跟 CPU 抗?fàn)帲茈y,現(xiàn)在我們發(fā)現(xiàn)這更難了。”


作為神經(jīng)科學(xué)家,Amir 也不看好神經(jīng)形態(tài)計算——類腦芯片的前景。他認為類腦計算從研究來看很有趣,但要成為產(chǎn)品還不切實際?!叭ツM一個你還不理解的東西是沒有道理的?!盇mir 說。


下面是經(jīng)過整理的采訪全文實錄。


深度學(xué)習(xí)不需要那么高精確度的計算


新智元:2016 年 Nervana 被英特爾收購后,說預(yù)計 2017 年 Q1 將推出一款芯片Lake Crest 。現(xiàn)在英特爾宣布 2017 年下半年推出這款芯片。為什么時間一再延遲?


Amir:其中一個原因是,當(dāng)時 Nervana 那款芯片是只為了 Nervana 自己制作的。如果放在 Nervana Cloud 上很快就可以出一款芯片。但是,到了英特爾,需要制作為很多不同客戶使用的處理器,這些客戶都是大公司,包括谷歌、Facebook 在內(nèi),必須要能完美地運行,在乘積單元之外,還需要做很多事情。Nervana 當(dāng)時的計劃是制作一款在 Nervana 的數(shù)據(jù)中心運行的處理器。到了英特爾以后,我們的策略、規(guī)格、質(zhì)量標(biāo)準都改變了,我們要把“Nervana 為自己做的處理器”變成“英特爾給大家的處理器”,這是發(fā)布時間延遲很大一部分原因。這是件好事,因為英特爾在這款芯片上投入了很多。


新智:英特爾未來 3 到 5 年的 AI 產(chǎn)品線是怎樣的?


Amir:整合了 Nervana 技術(shù)以后,英特爾計劃推出名為 Knights Crest 的系列產(chǎn)品線。我們最先公布的是 Lake Crest,這是一款 28 納米的芯片,預(yù)計今年下半年上市。這之后,對于深度學(xué)習(xí)這一塊,我認為未來將朝著兩大不同的方向發(fā)展——一是擁有越來越強的計算力,一是整合異構(gòu)計算。


深度學(xué)習(xí)領(lǐng)域發(fā)展非常迅速,我們必須做好多手準備以確保萬無一失。不同的問題和不同的工作流需要不同的硬件,因此接下來英特爾將有一系列 Crest 產(chǎn)品推出。第一版 Lake Crest 的特點是有很強的原始計算力(Raw Compute),是你能在一塊芯片上放的原始計算力的極限。一方面,隨著工藝的提升,從 28 納米到 16 納米、14 納米、10 納米……Crest 產(chǎn)品將擁有越來越強的計算力,浮點計算和峰值性能也會提升。


另一方面,我們會走一條類似圖像[處理器]的進程。上世紀 90 年代初,圖像處理是在 CPU 上做的,后來有人發(fā)明了 GPU(圖像處理器),更適合處理圖像數(shù)據(jù),再后來又有人把這個 IP 放到 CPU 里,所有現(xiàn)在我們有了同時有一堆 CPU 核和 GPU 核的 CPU。這種 CPU 里,GPU 核占的比例會根據(jù)使用場景產(chǎn)生變化,有時候很大(比如在手機),有時候(比如在數(shù)據(jù)中心)則會很小或沒有。我認為 Crest 產(chǎn)品線也會這樣,在同一個 CPU 處理器里,既有 CPU 核,也有神經(jīng)網(wǎng)絡(luò)核——如果是數(shù)據(jù)中心用,那么神經(jīng)網(wǎng)絡(luò)核就會多一些,如果是筆記本電腦用,那么就有神經(jīng)網(wǎng)絡(luò)核、GPU 核和 CPU 核。這就是我們對數(shù)據(jù)中心處理器的預(yù)期(vision),現(xiàn)在我們正式公布的只有 Lake Crest,后面的事情不好說。


新智元:后面的事情不好說?


Amir:領(lǐng)域不同的方向在以不同的速度發(fā)展。實際部署一個深度學(xué)習(xí)模型需要的不僅是模型本身,在工程、產(chǎn)品和客戶等其他方面也要配合才能成功并賺錢。有些公司的商業(yè)周期很長,因為要打磨產(chǎn)品,而單純看研究,三年后用的技術(shù)可能跟三年前完全不同——現(xiàn)在我們用深度學(xué)習(xí),三年后我們或許就不用神經(jīng)網(wǎng)絡(luò)了,或許用的是完全不同的神經(jīng)網(wǎng)絡(luò)……現(xiàn)在研究里我看到令人興奮的東西太多了,最后哪個會大獲成功現(xiàn)在還說不好。所以,為了做好準備,我們有一個多樣化的產(chǎn)品組合,在這方面英特爾有 CPU,也有 FPGA,很多。


在研究方面,英特爾最近成立了人工智能應(yīng)用實驗室,我是負責(zé)人,實驗室里進行很多研究——有些很瘋狂——就是為了應(yīng)對將來使用神經(jīng)網(wǎng)絡(luò)以外的技術(shù)時,英特爾也有適合的產(chǎn)品。我們針對很多不同的架構(gòu)都有做開發(fā)。舉例來說,做深度學(xué)習(xí)不需要 32 位計算,我們在實驗室開發(fā) 16 位、8 位到 2 位、1 位的計算架構(gòu)。


如果我兩年前這么說,吳恩達肯定會站出來反對。但現(xiàn)在,吳恩達也是第一批意識到深度學(xué)習(xí)不需要那么高精確度計算的人。英特爾與百度合作,在百度大腦開始了實驗室,專門研究低精度運算。現(xiàn)在,我們研究用于激活的 1 位低精度計算。從 32 位到 16 位、8 位……2 位、1 位,這樣從高精度到低精度的發(fā)展是必然的趨勢嗎?還是說到了 1 位,就是與 32 位在原理上完全不同的計算了?這是都開放的問題,我們正在研究。


新智元:你們與百度合作,百度有意向研發(fā)自己的芯片嗎?


Amir:百度有很強的硬件團隊,也在開發(fā)自己的 FPGA 產(chǎn)品。但這個問題你得問陸奇(笑)。 


深度學(xué)習(xí)模型在某種程度上可能朝著暴力計算發(fā)展


新智元:CPU 的未來會怎么樣?


Amir:Nervana 在初創(chuàng)公司時曾經(jīng)跟 CPU 抗?fàn)?,很難,現(xiàn)在我們發(fā)現(xiàn)這更難了。現(xiàn)在的深度學(xué)習(xí)模型在某種程度上可能朝著暴力計算發(fā)展,需要輸入大量的數(shù)據(jù)才能分辨事物。未來的深度學(xué)習(xí)模型可能更小、模型利用率更高,這樣就不需要幾十億的 TPFLOTS——實際上,深度學(xué)習(xí),要成功,要超越競爭者,不僅僅看 TPFLOTS。


另外,有一個很好的例子 AlphaGo,AlphaGo 展現(xiàn)了一種非常有趣的架構(gòu),一方面有不同的卷積神經(jīng)網(wǎng)絡(luò),一方面是蒙特卡洛搜索樹。兩者有機地結(jié)合——你很難將兩者區(qū)分開來。而開發(fā)一種架構(gòu)做這些不同的事情是很難的,因此 CPU 可能是為這種綜合架構(gòu)做計算最好的選擇。所以,將來你要做深度學(xué)習(xí) 演化搜索 蒙特卡洛樹搜索 ……,CPU 足夠靈活。我認為,在未來 CPU 將永遠重要(relevant)。


當(dāng)然,就像我剛才說的那樣,要成功不僅僅是靠處理器,還有生態(tài)系統(tǒng)和商業(yè)模式要考慮,以及真正做出能用、能賣得出去的東西。 


硬件團隊最該過硬的是軟件部門


新智元:去年新智元采訪了 Nervana CEO,也是現(xiàn)在英特爾公司副總裁兼英特爾人工智能產(chǎn)品事業(yè)部總經(jīng)理 Naveen Rao,他說英特爾的一大強項是有非常完備的產(chǎn)品組合,能夠針對不同的需求提供不同的產(chǎn)品。但正如你所說,技術(shù)和市場在快速發(fā)展,尤其是人工智能和深度學(xué)習(xí)。英特爾如何確保自己隨時都能滿足客戶新的需求?


Amir:技術(shù)周期是比較長的,這期間芯片的架構(gòu)確實可能過時,或者有競爭對手出現(xiàn)。但是,在Nervana 也好,在英特爾也一樣,我們發(fā)現(xiàn)做機器學(xué)習(xí)是非常難的一件事情——并不是難在你做出一款能解決一切的超級芯片,而是難在周圍的事情。谷歌在 2015 年發(fā)表了一篇很有意思的論文,叫《構(gòu)建機器學(xué)習(xí)系統(tǒng)的技術(shù)難點》(注釋:實際上論文題為“Hidden Technical Debt In Building A Machine Learning System”,谷歌團隊在 2015 年 NIPS 發(fā)表)。


論文里面有張圖,芯片是中間黑色的小小一塊,周圍是其他各種工程上的問題,比如安全、延遲……只有集齊了這些才能做出一個好的解決方案。要做好深度學(xué)習(xí)不僅僅是靠處理器。

 

當(dāng)然,話說回來,在英特爾,我們有實驗室,在很多很酷很激動人心的項目,我們也有把其中一些做成產(chǎn)品——那就是 AIPG (英特爾的人工智能產(chǎn)品集團)上場的地方——我希望這些將來都能有所應(yīng)用。在你看見的產(chǎn)品之外,英特爾在研發(fā)方面有很大的投資。另一方面,現(xiàn)在你看到的已經(jīng)做出來的產(chǎn)品,它們之所以存在,不僅僅是由于技術(shù)好用,也是因為它們足夠穩(wěn)定可靠。


新智元:確實,除了芯片或者說硬件以外,更多是構(gòu)建生態(tài)系統(tǒng)的過程。在愈發(fā)講究“軟硬結(jié)合”的現(xiàn)在,英特爾 AI 產(chǎn)品在軟件方面有什么布局呢?


Amir:在業(yè)內(nèi)有句話叫,“硬件團隊最該過硬的是軟件部門”(The hardest part of your hardware team is your software team)。軟件團隊總是比硬件團隊要大得多得多。開發(fā)在硬件處理器上跑的軟件是一項浩大的工程,在英特爾 AIPG 是這樣,Xeon 和 Xeon Phi 團隊也是如此。


在軟件方面,我特別想說的是 Nervana Graph。你知道,最底層是硬件,然后是神經(jīng)網(wǎng)絡(luò)做矩陣乘積,實際上在這中間還有一層,是所有框架都共享的,TensorFlow、Neon、Torch、PaddlePaddle……都使用圖、動態(tài)圖、卷積、嵌入層……雖然 TensorFlow 和 Torch 語言不同,但實際做的運算都一樣。我們發(fā)現(xiàn),現(xiàn)在是一個絕好的時機,把所有這些框架共同的特征都放到一個庫里,我們叫做 Ngraph,這是一個數(shù)據(jù)流的圖庫,在 Ngraph 里圖(Graph)是深度學(xué)習(xí)運算,邊緣(Edge)是數(shù)據(jù)。有了 Ngraph,英特爾作為硬件供應(yīng)商,就能支持所有的框架,無論你使用哪種框架,新建一個框架也行,我們都樂意支持。


英特爾能與不同的公司合作,而這些公司彼此之間爭得你死我活


新智元:軟件方面,谷歌推出了 TensorFlow 并且形成了如今最大的機器學(xué)習(xí)開發(fā)者社區(qū),遠遠超過 Neon。英特爾如何與此競爭呢?


Amir:Neon 與 TensorFlow 不同的地方在于,Neon 有英特爾這家硬件供應(yīng)商的支持,可以做全棧的支撐。我們能夠確保在 Neon 上運行神經(jīng)網(wǎng)絡(luò)是最快的。其他的框架,由于不在我們掌控之內(nèi),速度可能不會那么好,因為沒有做針對性的優(yōu)化。TensorFlow 也不是完美的,也有架構(gòu)上的問題。需要記住,TensorFlow 才出現(xiàn)一年,現(xiàn)在領(lǐng)域變化這么快,很可能未來會出現(xiàn)其他框架超越 TensorFlow——可能是 Neon,也可能是俄羅斯來的研究生。我們與 TensorFlow 的競爭都是友好的,我以前實驗室的同學(xué)就在 TensorFlow。我們相互“競爭”是為了讓產(chǎn)品更好。


實際上,英特爾并不會跟谷歌“競爭”。谷歌是我們的客戶,F(xiàn)acebook 也是,亞馬遜也是。如果客戶喜歡用 TensorFlow,我們會專門為他們優(yōu)化 TensorFlow,我自己就參加了很多這樣的會議。我們想要框架運行的速度最快,現(xiàn)在市場上相互競爭的框架這么多,英特爾也為此做了很多投入。實際上,我們之所以加入英特爾,就是因為在英特爾你能與這些不同的公司都合作,而這些公司彼此之間爭得你死我活。


我們正在開發(fā)我們認為比 TPU 第二代更好的芯片


新智元:谷歌前不久發(fā)布了第二代 TPU,與谷歌云綁定,對使用谷歌云的客戶提供。從公布的數(shù)據(jù)上看,你認為 TPU 第二代如何?谷歌將 TPU 和云服務(wù)綁定的商業(yè)模式呢?


Amir:谷歌 TPU 第二代的細節(jié)我們還不清楚,但看公布的性能數(shù)據(jù)確實漂亮——圖像也很漂亮。谷歌是家偉大的公司,說什么就做什么,而且做到,我對此表示敬意。實際上,我們成立 Nervana 時就是以谷歌大腦為目標(biāo)——Nervana 要做每個人的谷歌大腦?;氐郊夹g(shù)上,TPU 第一代是很有趣的產(chǎn)品,第一代 TPU 表明為問題定制專門的芯片是未來的發(fā)展方向。谷歌很聰明,為他們的數(shù)據(jù)中心開發(fā)了自己的芯片。這表明,對于訓(xùn)練來說,或者就整個架構(gòu)而言,純 GPU 也許并不是最好的解決方案。


至于 TPU 第二代,我能告訴你的是,們正在開發(fā)我們認為比 TPU 第二代更好的芯片,這是英特爾核心競爭力所在。而且,我們的產(chǎn)品所有人都能買。TPU 第二代性能數(shù)據(jù)是很好,但我們很有信心能做出更好的芯片——我們有合適的架構(gòu),是可擴展的,可以根據(jù)需要變動。和云綁定的商業(yè)模式很好,我們在 Nervana 就是這么做的。英特爾也在構(gòu)建定制的垂直堆棧??傊?,谷歌的產(chǎn)品很好,商業(yè)模式也不錯,但我們手頭在做的產(chǎn)品要好更多。


英偉達開源很好,但硬件開源并沒有多大用


新智元:你對開源硬件這件事怎么看?


Amir:制造硬件是一件艱苦卓絕的事情。在英特爾,有專門的化學(xué)家用化學(xué)藥劑腐蝕硅晶圓……芯片制作工藝復(fù)雜而美妙,可以說是人類所做的最神奇的事情之一。英特爾有自己的工廠,有化學(xué)家、計算機科學(xué)家、架構(gòu)師等等等等。生產(chǎn)處理器,設(shè)計并不是最困難的,困難的是做出能用的東西。相比直接說,“給,這是這個東西的設(shè)計圖”,把東西切切實實做出來要困難成千上萬倍。只看設(shè)計方案,很難做出能用的東西——也許有聰明的人會,但英特爾厲害之處在于從化學(xué)到硅晶圓加工到設(shè)計再到生產(chǎn)制造,一整套流程,能夠產(chǎn)出缺陷少、成本低的產(chǎn)品,消費者能用很低的價格買到。


英偉達開源很好,英偉達有很厲害的工程師——我們團隊里就有很多來自英偉達的工程師。但是,制作供大眾使用的處理器,開源并沒有多大的作用,至少我認為如此。但我是個神經(jīng)科學(xué)家,或許我是錯的呢:)


類腦芯片前景:去模擬一個你不理解的東西是沒有道理的


新智元:是的,你擁有神經(jīng)科學(xué)背景,Nervana 的芯片也借鑒了神經(jīng)科學(xué)原理。你怎么看類腦芯片的前景?


Amir:類腦芯片或者說神經(jīng)形態(tài)計算在上世紀 90 年代由加州理工的 Carver Mead 提出的,他認為你能用模擬芯片模仿人腦神經(jīng)元和突觸的活動。人腦神經(jīng)沖動傳遞是一個逐漸的過程,只有當(dāng)積累的電量超過一個設(shè)定的界限時信號才會通過,因此能耗非常低。Mead 將這個概念進一步發(fā)展,認為能制作芯片,用類似的方式進行計算。但是,他并沒有認為我們要完全模仿大腦。原始的概念是,你能用非精確的計算要素,結(jié)合這種閾值,進行精確的計算。這個概念由來已久,是馮·諾依曼在上世紀 50 年代提出的:你能用非精確的要素制作能夠進行精確計算的計算機。這也是我們能從這一思想中汲取的主要靈感?,F(xiàn)在,在類腦領(lǐng)域,有脈沖神經(jīng)網(wǎng)絡(luò),在模擬人類的大腦,細粒度、異步、分布式……這些都很好,從研究的角度看。但從實用的角度說,我們現(xiàn)在還不知道如何訓(xùn)練這些系統(tǒng),讓它們在生產(chǎn)上發(fā)揮功用。


如今的神經(jīng)網(wǎng)絡(luò)跟脈沖神經(jīng)網(wǎng)絡(luò)極為不同,可以說是完全不同的領(lǐng)域。確實,如今的神經(jīng)網(wǎng)絡(luò)受生物學(xué)啟發(fā)而來,但這種啟發(fā)十分有限。我研究生物學(xué)研究了很長時間,非常清楚我們對大腦的理解還非常有限,無法轉(zhuǎn)換成產(chǎn)品。我們要做產(chǎn)品的是機器學(xué)習(xí),而不是神經(jīng)科學(xué)。IBM 的 TrueNorth 等等神經(jīng)形態(tài)芯片都很好,是很棒的研究理念,但是更像是拿著錘子找釘子。我認為,去模擬一個你不理解的東西是沒有道理的。


如今的深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)借鑒神經(jīng)科學(xué)的原理。例如,現(xiàn)在有論文借鑒了注意力機制(Attention),這來自心理學(xué)?,F(xiàn)在的神經(jīng)網(wǎng)絡(luò)研究借鑒了很多不同學(xué)科的知識,但并不是要去完全模擬這些東西。而且,就算 TrueNorth 也跟真正的神經(jīng)網(wǎng)絡(luò)很不同,相似的只有一小部分。人類的神經(jīng)元非常復(fù)雜,還與幾十億其他神經(jīng)元連接,既有模擬特性也有數(shù)字特性。我這樣說是因為我是神經(jīng)科學(xué)家——我在入行前做了很多年神經(jīng)科學(xué)的研究,那些認為能夠通過模仿大腦構(gòu)建出類似大腦神經(jīng)形態(tài)芯片的人,很多都不是神經(jīng)科學(xué)家,沒有受過我所經(jīng)受的折磨——做實驗?zāi)弥结槾踢M大腦卻不知道究竟要找什么。我熱愛神經(jīng)科學(xué),或許將來我們能從神經(jīng)科學(xué)中找到靈感,能轉(zhuǎn)換為人工智能芯片架構(gòu)和產(chǎn)品。實際上,英特爾也有類腦芯片的研究。但是,產(chǎn)品還是很遙遠的事。 

 



本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
英特爾的AI芯片一再爽約,絕不是他們能力不足
FB、阿里入局,未來誰將主宰AI芯片?英特爾人工智能事業(yè)部副總裁專訪
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服