在日益變得顛覆的AI背后,總有NVIDIA的影子。
今天上午,作為NVIDIA全球GTC(GPU Technology Conference)大會中最重要的一站之一,GTC China再次在北京召開了。身著標(biāo)志性黑色皮衣的教主黃仁勛也在本次大會開始之際,奉上了一場題為“一個全新的計算時代(A NEW COMPUTING ERA)”的主題演講。
按照慣例,NVIDIA基本上每年都會將自身重要的產(chǎn)品發(fā)布、軟件更新在5月份美國本土召開GTC上宣布。而全球其他地區(qū)的GTC大會則主要是根據(jù)各地區(qū)的情況進行微調(diào)和“重新演示”,本次的GTC China亦是如此。
但也正是因為如此,也給了黃教主更多時間去介紹NVIDIA今年的新進展,同時也毫不隱晦的展示出一個結(jié)論——NVIDIA不僅僅在AI浪潮中,而且是這波浪潮得以成型推進的重要原因。
為什么說GPU是必然的選擇?
性能
這個話題實際上曾出現(xiàn)在今年NVIDIA的數(shù)個活動中,就連黃仁勛自己也說了很多遍,正如黃教主今天在Keynote演講中強調(diào)的那樣(牙膏廠跪倒在地):
過去整體行業(yè)都是依賴摩爾定律來推動,但它太老了,太慢了,GPU才是全新的‘超級摩爾定律’,這也是整個行業(yè)一次千載難逢的機遇。
這種性能發(fā)展上的差距與串行/并行運行的原理有著直接的關(guān)系,最終的結(jié)果就像NVIDIA多次展示的那樣,在2010年之后,GPU類處理器內(nèi)部的晶體管數(shù)量還保持著快速增長的勢頭,而CPU已經(jīng)出現(xiàn)了明顯的放緩。
應(yīng)用場景
除了性能之外,應(yīng)用場景的出現(xiàn)則是另外一個重要的點。尤其是NVIDIA在2008年開始打造CUDA架構(gòu)之后,GPU的用途已經(jīng)發(fā)生了翻天覆地的變化。而長久以來受限于CPU處理能力的人工智能也在那個時刻找到了更加適合的源動力,并且憑借GPU的性能不斷提升,極大的拓展了人工智能的能力和適用范圍。
正如黃仁勛在此次Keynote中再次提及的部分NVIDIA最新“AI產(chǎn)品”:之前雷鋒網(wǎng)曾在洛杉磯SIGGRAPH大會上報道過的‘Interactive Ray Tracing(工業(yè)渲染預(yù)測加速)’,利用語音就能生成的虛擬頭像,能夠讓游戲虛擬角色根據(jù)地形做出高度仿真動作的全新算法等等。
不過這些技術(shù)和全新算法之所以能夠成為現(xiàn)實,最關(guān)鍵的原因還是GPU能夠提供足夠的處理能力。
AI云時代的到來
在此次大會上,黃仁勛也親自宣布了一個重要的里程碑進度——國內(nèi)的三大公有云公司:阿里云、百度云、騰訊云均已經(jīng)引入了NVIDIA的硬件,并且向B端用戶開始提供AI相關(guān)能力的服務(wù)。
傳統(tǒng)CPU方案(上)與NVIDIA方案(下)的對比這個改變最大的根源實際上是成本,正如黃仁勛在大會現(xiàn)場舉的一個例子:按照傳統(tǒng)方案,云服務(wù)商可以采購4個機架、共160個CPU服務(wù)器,在功耗65千瓦的情況下提供每秒45000張照片的處理能力。而如果換成NVIDIA的產(chǎn)品,你只需要一個裝有8片V100 GPU的NVIDIA HGX服務(wù)器,同樣的每秒45000張照片處理能力,但是你只需要7個服務(wù)器插槽,總共的功耗也只有3個千瓦。
明顯的數(shù)字對比,背后是巨大的采購和運營成本差距。換句話說,在AI云處理需求越來越大的當(dāng)下,不是服務(wù)商選擇使用NVIDIA的GPU,而是他們“被迫”使用NVIDIA的GPU。黃教主給出了一個非常精要的總結(jié):
你用的GPU越多,你省的錢越多?。∕ore GPU,Save More Money!)
當(dāng)然,選擇NVIDIA的GPU還有另外一個重要原因,5月份的GTC上NVIDIA曾發(fā)布了專門用于云端GPU堆棧處理的技術(shù)架構(gòu)NGC(NVIDIA GPU Cloud)。這種技術(shù)架構(gòu)實際上擁有NVIDIA相應(yīng)處理器產(chǎn)品的云運營商都有使用,進一步增加了GPU在云端的工作效率和使用率。
NVIDIA=AI浪潮的推動者?
就在上周,投行EvercorelSI曾對NVIDIA做出了一個最新的預(yù)測——后者的股價還有40%的上升幅度,因為投資者依舊“嚴重”低估了人工智能技術(shù)的市場。隨后NVIDIA的股票隨之大漲5%,也算是NVIDIA與AI浪潮關(guān)系緊密的一個側(cè)面證明。
在這次大會上,黃仁勛也“重新發(fā)布”了NVIDIA GPU的AI優(yōu)化技術(shù)TensorRT,其關(guān)鍵亮點在于人工智能場景下的巨大提升。
在同樣使用全新的V100 GPU的情況下,TensorRT相比通用的TensorFlow在圖像分析場景下還能提升19倍之多,在語義分析場景下更是能提升22倍。
黃仁勛在隨后的采訪環(huán)節(jié)也給雷鋒網(wǎng)解釋了,這種“巨幅”提升的秘密——雖然GPU的絕對性能很重要,但是如何將不同的人工智能架構(gòu),與不同架構(gòu)的GPU適配,實際上對后者性能的發(fā)揮有著巨大的影響。
左側(cè)是普通人工智能架構(gòu),右側(cè)是TensorRT優(yōu)化之后的結(jié)果并且TensorRT現(xiàn)在實際已經(jīng)可以作用于所有常見的人工智能架構(gòu),例如:TensorFlow、Caffe2、Chainer、Microsoft Cognitive Tookit、Mxnet、PaddlePaddle、Pytorch、theano。
換個角度來說,NVIDIA實際已經(jīng)在嘗試甚至打造出了一套最適用于自身硬件的人工智能架構(gòu)。也正是因為這個原因,V100才能憑借自身出色的性能,以及全新添加的Tensor Core,在人工智能的相關(guān)場景中獲得最出色的表現(xiàn)。
這種在核心硬件性能上的拓展存在于NVIDIA的所有產(chǎn)品線當(dāng)中,例如NVIDIA為自動駕駛硬件所搭建的DRIVE Works SDK,能夠輕松的調(diào)用強大的硬件性能處理各種自動駕駛需求,無論你的傳感器是攝像頭、毫米波雷達、激光雷達。
另外一個具體例子是機器人領(lǐng)域,黃仁勛在此次Keynote演講中特別提到了自動機器人方向,他還特別強調(diào)——這很可能是人工智能下一個最重要的領(lǐng)域。
而在今年5月的GTC大會中,NVIDIA也放出了一個對應(yīng)的“大招”:全新的機器人訓(xùn)練方式“Project Isaac”。憑借這種全新技術(shù),用戶完全不需要再在機器人實物上進行重復(fù)的調(diào)試和實驗,完全可以將整個場景搬到虛擬世界當(dāng)中,并且利用GPU的學(xué)習(xí)能力,讓機器自行學(xué)會最佳處理方式。
最最最關(guān)鍵的是,因為這種模擬運用的實際上也是NVIDIA的GPU,所以它所生成的算法完全能夠移植到NVIDIA Jetson這樣的終端AI芯片平臺之上,直接讓終端的機器人憑借之前學(xué)習(xí)的經(jīng)驗運行。
平臺戰(zhàn)略,愛
從另外一個角度來看,NVIDIA在2017年的諸多AI領(lǐng)域更新實際可以概括為一句話——做的越來越多,做的越來越全。
例如上文提到的TensorRT,它實際上在各大人工智能架構(gòu)和NVIDIA的硬件之間搭起了一座“橋梁”。但為什么NVIDIA還要支持這么多種類架構(gòu)?為什么NVIDIA不自己選擇或者打造一套架構(gòu)?
答:平臺戰(zhàn)略。這同時也是今天黃仁勛在媒體群訪環(huán)節(jié)提到次數(shù)最多的四個字。用黃仁勛自己的話來說:
眾人拾柴火焰高,有些事需要大家一起來做。
回到上面的AI架構(gòu)類問題,打造出CUDA架構(gòu)的NVIDIA實際上是有機會建立自己的人工智能架構(gòu)、甚至參考蘋果,推出自己的相應(yīng)的系統(tǒng),將整個系統(tǒng)的核心部分逐漸閉環(huán),進而加強自身的掌控力。
目前NVIDIA正在合作的自動駕駛創(chuàng)業(yè)公司但事實是,NVIDIA從人工智能技術(shù)最早期就跟全球的各大知名高校有合作,支持他們進行相應(yīng)技術(shù)的開發(fā);在自動駕駛領(lǐng)域,使用NVIDIA DRIVE套件的初創(chuàng)公司已經(jīng)達到了145家,同時寶馬、大眾、本田等一批傳統(tǒng)車企也和NVIDIA保持著緊密的合作關(guān)系;如果算上其他領(lǐng)域,目前NVIDIA自己的Inception創(chuàng)業(yè)公司計劃的全球規(guī)模已經(jīng)達到了1900家。
而如此廣泛合作的出發(fā)點其實也很簡單,黃仁勛在采訪環(huán)節(jié)直接說了出來:
NVIDIA提供的是平臺,也就是說NVIDIA的平臺可以讓其他的人去創(chuàng)業(yè),去實現(xiàn)自己公司的夢想。
如果說上面這句話還略顯模糊,那么黃仁勛在采訪環(huán)節(jié)中回答另外一個競爭性的問題時,則更加直接說出了他自己的想法:
NVIDIA正在做的這些事業(yè),沒有愛是無法做成的。無論人工智能、自動駕駛這些事業(yè)哪一個做成了,我都會很開心。
在他說出“愛”的那一瞬間,這個穿著黑色皮衣的“核彈教主”真的有點萌。
附:黃仁勛媒體群訪摘錄
問:自主機器的時代什么時候才會來臨?
黃仁勛:自主機器它需要解決的是三大根本的問題,第一個是為這些自動自主機器打造一個類似于人工智能的平臺,第二個問題是給自主機器有一個虛擬的、來學(xué)會做機器人的這種環(huán)境,第三個問題是我們要想辦法把大腦放到自主機器人的框架里面去。NVIDIA明年年初可能就會初步把這三個問題解決好,10-15年之后,大家會看到巨大的變化。
問:您認為GPU將來可以覆蓋所有的場景,還是說在GPU之外還有更多的場景,更多的CPU也會制造出來,形成我們最終未來計算的一個模式?
黃仁勛:首先GPU不會替代CPU,它是攜手和CPU共同工作的,這也是我們?yōu)槭裁窗阉Q之為加速器,CPU是通用型的,什么場景都可以適用。但是GPU在一些專門的問題上是能量非常大的。它的性能要比CPU超過10倍,50倍甚至百倍。因此,我們就認為事實上最完美的架構(gòu)是什么呢?首先我們要把萬事皆能的CPU,在加上在某些重大計算挑戰(zhàn)方面非常有能量的GPU。所以NVIDIA最終的選擇是——我們不會做那些每一次好一點點的通用性的處理器,而是要做在一些專門的領(lǐng)域,性能極好的處理器。后者實際上就是CUDA。
問:如果非要選一個,您認為未來在人工智能領(lǐng)域是GPU重要還是FPGA重要?
黃仁勛:首先兩者差異非常大,F(xiàn)PGA非常靈活,你甚至可以把它用到網(wǎng)卡里,但是GPU沒有這么大的靈活性,它只是一種并行計算的加速器。所以GPU是術(shù)業(yè)有專攻。所以在三年前我們做了一個決定,把我們GPU做成Tensor執(zhí)行處理器,現(xiàn)在已經(jīng)成為世界上最優(yōu)秀的Tensor處理器。
問:NVIDIA跟大眾這樣的車企有合作,也投資了圖森未來和景馳這樣的公司,你們對于合作是怎么思考的?
黃仁勛:首先我們在合作過程中,不是打賭,更不考慮輸贏。NVIDIA提供的是平臺,也就是說NVIDIA的平臺可以讓其他的人去創(chuàng)業(yè),去實現(xiàn)自己公司的夢想。我們希望大家都成功。所以NVIDIA作為一家平臺供應(yīng)商,我們的任務(wù)是不斷的讓這個平臺與時俱進,讓它做得更好,讓它不斷的進步。NVIDIA絕對不是一個自閉的公司,也不是一個做垂直集成的公司,NVIDIA是一家開放平臺型的公司。NVIDIA做得這個事業(yè)沒有愛是無法做成的。
問:NVIDIA還會投資哪些公司?您下一個打算改變的行業(yè)是哪個?
黃仁勛:NVIDIA所提供的是這樣的一個平臺,我們提供的平臺是針對所有的事物。當(dāng)然我們也有重點,我們關(guān)心幾個垂直領(lǐng)域,其中一個就是人工智能,還有一個就是交通運輸行業(yè)。如果你問我們未來NVIDIA還有哪些重視的行業(yè)?當(dāng)然醫(yī)療衛(wèi)生或者健康產(chǎn)業(yè)是我們非常重視的。在這里我們相信我們可以幫助健康產(chǎn)業(yè)實現(xiàn)變革。例如新藥研發(fā)、藥物的臨床實驗、甚至是人群的病癥研究等等。
問:您怎么看待中國的人工智能崛起?
黃仁勛:中國本身在計算機科學(xué)方面就是全球一流的。比如騰訊、阿里巴巴、百度,他們都是世界一流公司,又比如李飛飛,她不僅僅是我的好朋友,更是世界一流的人工智能科學(xué)家,所以我非??春弥袊?。因為中國的計算機整個產(chǎn)業(yè)的技術(shù)水平,本身就達到世界一流。
聯(lián)系客服