文: 嚴(yán)肅,來源:硅谷密探(ID:SVS-007)
Vicarious是硅谷最神秘的人工智能公司,這家從2010年就專注通用人工智能(Artifical General Intelligent)的公司,吸引了Facebook CEO扎克伯格、特斯拉CEO馬斯克、彼得.蒂爾和亞馬遜CEO杰夫.貝索斯的私人投資。
其他投資人還包括雅虎創(chuàng)始人楊致遠(yuǎn)、Facebook聯(lián)合創(chuàng)始人Dustin Moskovitz、著名投資人阿什頓.庫徹,以及硅谷著名VC Formation 8和全球領(lǐng)先的工業(yè)機(jī)器人公司ABB等,目前已籌集7200萬美元。
究竟是一家怎樣的公司能同時(shí)讓馬斯克和扎克伯格等為其注資呢?
Vicarious的目標(biāo)定位于“建立下一代的人工智能算法”。并且聲稱要構(gòu)建“像人類一樣思考的軟件”,實(shí)現(xiàn)“人腦級(jí)別的視覺、語言和自動(dòng)控制系統(tǒng)”,致力于研究通用人工智能,目前他們的研究重點(diǎn)是實(shí)現(xiàn)人工視覺識(shí)別系統(tǒng)。
Vicarious的研究有別于當(dāng)前主流的強(qiáng)調(diào)數(shù)據(jù)重要性的深度學(xué)習(xí)技術(shù)體系,非常強(qiáng)調(diào)模型的重要性。他們利用神經(jīng)科學(xué)的一些成果和啟發(fā)來構(gòu)建更通用的機(jī)器學(xué)習(xí)模型(比如基于Probabilistic Graphical Model),期待通過數(shù)量小、質(zhì)量高的訓(xùn)練數(shù)據(jù)達(dá)到接近人類認(rèn)識(shí)的效果。
Vicarious的研究從2010年就開始了,2013年宣布破解驗(yàn)證碼測(cè)試(CAPTCHA)引起了廣泛關(guān)注。但它非常神秘,2016年之前都沒有公開任何論文或者可供研究的程序,學(xué)術(shù)圈對(duì)此也有所爭(zhēng)議。
今年NIPS會(huì)議,Vicarious首次發(fā)表論文,乘此機(jī)會(huì)硅谷密探拜訪了Vicarious,并獨(dú)家專訪其聯(lián)合創(chuàng)始人Scott Phoenix,解密這家神秘的人工智能公司。
先回答一些大家關(guān)心的問題:
嚴(yán)肅:Vicarious是如何吸引到貝索斯、扎克伯格、馬斯克和彼得.蒂爾等人的投資的呢?
Scott Phoenix:貝索斯、馬斯克、彼得·蒂爾和扎克伯格本身就是非常聰明而有遠(yuǎn)見的人,他們?cè)谌藗冮_始思考人工智能之前就已經(jīng)看到了人工智能可能的未來。當(dāng)我們在2010年成立Vicarious時(shí),似乎其他人都在討論Groupon等團(tuán)購網(wǎng)站。彼得·蒂爾和達(dá)斯汀·莫斯科維茨(Facebook聯(lián)合創(chuàng)始人)是第一批對(duì)人工智能的革命性前景感興趣的的人。當(dāng)時(shí),只有兩個(gè)公司認(rèn)真專注于做人工智能系統(tǒng):Vicarious和DeepMind,彼得和達(dá)斯汀投資了我們的第一輪。
我們靜靜地工作了一段時(shí)間,然后在破解驗(yàn)證碼測(cè)試的時(shí)候,我們被介紹給了扎克伯格、馬斯克和貝索斯。出于不同的理由,他們都非常有興趣了解我們正在做什么。對(duì)于馬斯克,他投資的主要原因是關(guān)心人工智能安全和存在的風(fēng)險(xiǎn)。對(duì)于扎克伯格和貝索斯,他們更多的是支持人工智能這項(xiàng)可能對(duì)社會(huì)產(chǎn)生積極變革效應(yīng)的技術(shù)的發(fā)展。
嚴(yán)肅:Vicarious在2013年就破解了驗(yàn)證碼測(cè)試,但是今年才發(fā)布相應(yīng)的論文(今年也公布幾篇其他的論文)。為何不選擇早點(diǎn)公開這些論文?
Scott Phoenix:我們沒有在2014年就公開驗(yàn)證碼測(cè)試的工作的原因是,我們不希望這項(xiàng)廣泛被應(yīng)用的驗(yàn)證碼系統(tǒng)被我們搞壞。
在我們宣布了破解驗(yàn)證碼測(cè)試的消息后,谷歌和其他大型的網(wǎng)站逐步開始減少對(duì)圖形驗(yàn)證碼識(shí)別的依賴,這大大減少了我們公布論文后可能對(duì)互聯(lián)網(wǎng)的危害。
我們選擇現(xiàn)在發(fā)布論文,也是為了增加和學(xué)術(shù)圈的交流。但是,我們絕對(duì)不會(huì)像學(xué)術(shù)實(shí)驗(yàn)室一樣頻繁的發(fā)表論文,因?yàn)槲覀兊闹饕匦倪€是為了推動(dòng)人工智能的進(jìn)步,而不是依賴于論文發(fā)表和被引用。
嚴(yán)肅:你認(rèn)為大家對(duì)于Vicarious的常見誤解是什么?
Scott Phoenix:我最常聽到的兩個(gè)相關(guān)聯(lián)的問題是:為什么Vicarious融這么多錢?我們什么時(shí)候要發(fā)布產(chǎn)品?
我們?nèi)诹艘淮蠊P錢,因?yàn)闃?gòu)建一個(gè)AI系統(tǒng)需要長(zhǎng)時(shí)間的投入和多學(xué)科的努力。為了取得大的進(jìn)步,需要一大批來自不同背景的人在一起工作很多年。就像建造第一架飛機(jī)、燈泡或電話一樣,這個(gè)產(chǎn)品是一個(gè)非常長(zhǎng)的科學(xué)實(shí)驗(yàn)和迭代的結(jié)果。
嚴(yán)肅:你認(rèn)為深度學(xué)習(xí)有哪些局限性?
Scott Phoenix:深度神經(jīng)網(wǎng)絡(luò)(DNN)需要大量的訓(xùn)練數(shù)據(jù),不能很好地適用于新的任務(wù)或環(huán)境。
此外,深度學(xué)習(xí)往往側(cè)重于學(xué)習(xí)輸入感知與輸出動(dòng)作之間的映射(如用于做分類決策或者是圍棋、Atari游戲上的移動(dòng)的決策)。
我們認(rèn)為智能的本質(zhì)是能夠?qū)W習(xí)一個(gè)所處在世界的心理模型(mental model ),然后能否在這個(gè)模型上進(jìn)行模擬(所謂想象力)。
嚴(yán)肅:Vicarious似乎開始將一些研究成果應(yīng)用用來解決一些行業(yè)的具體的問題,會(huì)有哪些具體的應(yīng)用?聽說是機(jī)器人領(lǐng)域?為什么要從這些問題開始?
Scott Phoenix:我們認(rèn)為產(chǎn)品是在有根本性的科研發(fā)現(xiàn)和重點(diǎn)研究后的自然結(jié)果。我們的第一個(gè)產(chǎn)品將幫助今天的機(jī)器人更多樣化和更廣泛的使用。一直以來,這個(gè)世界擁有制造數(shù)十億的機(jī)器人的材料和零部件。這個(gè)世界上充滿了廉價(jià)的傳感器、電機(jī)、塑料和芯片,然而普通人每年看到的機(jī)器人幾乎是零,普通工廠里擁有的機(jī)器人也是零。Vicarious旨在使用其先進(jìn)的AI技術(shù),使機(jī)器人比今天更加有用,使其無所不在。
我們選擇從機(jī)器人開始,因?yàn)樗鼘?duì)未來使用AI的方式的具有最大的影響。我們正處于機(jī)器人革命的黎明,我們的目標(biāo)是讓Vicarious成為機(jī)器人界的“Intel Inside”。
嚴(yán)肅:Vicarious的研究強(qiáng)調(diào)了幾個(gè)主題和限制,例如“從有限數(shù)量的訓(xùn)練示例中歸納”(“Generalizing from a limited number of training examples”),生成模型(Generative models)?這些主題和限制會(huì)帶來什么局限或挑戰(zhàn)呢?什么樣的問題是Vicarious的算法不擅長(zhǎng)解決的呢?
Scott Phoenix:新技術(shù)開始出現(xiàn)時(shí),和當(dāng)前重度優(yōu)化的現(xiàn)有技術(shù)相比,它可能在很多層面上反而沒有優(yōu)勢(shì)。例如,當(dāng)晶體管收音機(jī)出來時(shí),它比現(xiàn)有的真空管收音機(jī)在許多方面差得多。但它更加便攜,隨著時(shí)間的推移,它從各個(gè)層面超越了真空管。構(gòu)建新類型的AI也是類似的。我們的技術(shù)在許多方面優(yōu)于深度神經(jīng)網(wǎng)絡(luò)(DNN),但還有其他一些方面還不如深度神經(jīng)網(wǎng)絡(luò)。例如,我們尚未把優(yōu)先級(jí)放在建立必要的規(guī)模來測(cè)試像ImageNet這樣的數(shù)據(jù)集上的算法。隨著時(shí)間的推移和不斷的努力,我們將在大多數(shù)事情上變得更好,但是為了達(dá)到這個(gè)目標(biāo),我們有許多技術(shù)挑戰(zhàn)和研究問題需要解決。
嚴(yán)肅:Vicarious面臨最大的潛在的挑戰(zhàn)是什么?
Scott Phoenix:Vicarious面臨的主要挑戰(zhàn)是技術(shù)本身。建立人工智能是一個(gè)很有難度的問題。創(chuàng)建第一個(gè)智能的機(jī)器人系統(tǒng)是具有挑戰(zhàn)性的,因?yàn)樗枰S多不同領(lǐng)域的專業(yè)知識(shí)。但這些挑戰(zhàn)也是驅(qū)動(dòng)我們前進(jìn)的動(dòng)力,非常榮幸能夠和一些世界上最聰明的頭腦來一起解決這個(gè)人類面臨的最重要的問題之一。
Vicarious的技術(shù)特點(diǎn):強(qiáng)調(diào)建模的重要性
Vicarious發(fā)表的這篇論文《Generative Shape Models: Joint Text Recognition and Segmentation with Very Little Training Data》是Vicarious技術(shù)的一小部分的一個(gè)嘗試性的應(yīng)用,他們發(fā)表的一個(gè)原因是希望吸引學(xué)術(shù)界更多人參與這種神經(jīng)科學(xué)和腦科學(xué)引導(dǎo)的、建模為主的人工智能研究。
在采訪中,我們也和Vicarious的商業(yè)化總監(jiān)樓興華博士(NIPS論文作者之一)討論了Vicarious技術(shù)的特點(diǎn)。
Vicarious的技術(shù)特點(diǎn)一:生成性模型
Vicarious的研究重點(diǎn)是通用人工智能,研究重點(diǎn)是生成模型。
生成模型區(qū)別于判別式模型(Discriminative Model),生成模型可以通過貝葉斯得到判別模型,但判別模型無法得到生成模型。
簡(jiǎn)單的說,拿到一張圖片,生成模型需要懂得圖片中需識(shí)別的物體的較為完整的信息,需要懂得此物體的構(gòu)建的過程(所謂“生成”)。因?yàn)樯赡P捅旧怼岸蔽矬w,天然地它就可以“創(chuàng)造”新的、未見的物體實(shí)例。如下圖,一旦Vicarious的模型懂得了字符“A”,它就可以“想象”出很多種可能的“A”的實(shí)例。也就是說,如果在實(shí)際場(chǎng)景中觀察到這些不同變化的“A”,Vicarious的模型都可以很好的識(shí)別出來。
當(dāng)然,從應(yīng)用角度來說,基于深度學(xué)習(xí)的判別模型更容易上手,但生成模型有更強(qiáng)的解釋性,大部分變量都有實(shí)際的意義,更容易調(diào)試(debug),在通往建立通用人工智能(AGI)的道路會(huì)更有競(jìng)爭(zhēng)力。
此外,人腦的工作模式更有層次感,比如人眼觀察東西,先是從形狀出發(fā),接下來可能是看顏色,在往下可能是材料和材質(zhì)。深度學(xué)習(xí)則往往無法不能很好的把問題分解(factorization),而Vicarious的模型能夠很好的把問題分解,更接近于人類的思考方式。
Vicarious此次公開的三篇論文和生成模型有關(guān),另外兩篇是《Hierarchical compositional feature learning》和《A backward pass through a CNN using a generative model of its activations》(微信回復(fù)“論文”獲得三篇論文的下載鏈接)。
Vicarious的技術(shù)特點(diǎn)二:基于神經(jīng)科學(xué)和腦科學(xué)的成果
Vicarious約有20%的神經(jīng)科學(xué)家和腦科學(xué)家,來研究人腦的工作機(jī)制和人的行為特點(diǎn),這是Vicarious的一大特點(diǎn)。剩下50%約為機(jī)器學(xué)習(xí)背景的研究者,來基于神經(jīng)科學(xué)和腦科學(xué)模型來建模,還有一部分是計(jì)算機(jī)視覺的研究者。
Vicarious認(rèn)為認(rèn)知(Perception)依舊是人工智能的最大難點(diǎn)之一,所以Vicarious目前研究的重點(diǎn)是視覺(Computer Vision),主要出發(fā)點(diǎn)是在現(xiàn)實(shí)世界中,視覺是非常重要的輸入來源,而針對(duì)視覺的腦科學(xué)研究也有些突破。
而基于腦科學(xué)的一些研究,能夠?yàn)榻⒛P蛶砗芏鄦l(fā),比如Vicarious發(fā)表在NIPS上的論文,里面就利用了腦科學(xué)上非常成熟的成果:人類的神經(jīng)系統(tǒng)系統(tǒng)普遍存在的側(cè)向抑制的現(xiàn)象,這引導(dǎo)Vicarious在他們?cè)谀P蜕蠈?shí)現(xiàn)了側(cè)向約束(Lateral Constraints)。
在字母驗(yàn)證碼識(shí)別這個(gè)具體問題上,Vicarious基于生成型形狀模型的系統(tǒng)能夠只用1406張圖片作為訓(xùn)練集,就超越了利用深度學(xué)習(xí)的800萬圖片達(dá)到的效果。
Vicarious的顧問團(tuán)隊(duì)包括計(jì)算機(jī)視覺領(lǐng)域的斯坦福教授Fei-fei Li,神經(jīng)科學(xué)領(lǐng)域的UC Berkeley教授Bruno Olshausen 和UCLA教授Alan Yuille。
(Fei-fei Li)
Vicarious目前沒有自然語言處理和語音等方向的研究項(xiàng)目。
Vicarious如何賺錢?
Vicarious目前的商業(yè)化主要集中于倉儲(chǔ)機(jī)器人領(lǐng)域,希望通過提供高智能、高效率的機(jī)器人來支持現(xiàn)代商業(yè)中至關(guān)重要的產(chǎn)業(yè),例如倉儲(chǔ)物流和工業(yè)生產(chǎn)線。另一方面,Vicarious的投資方對(duì)這個(gè)方向也表現(xiàn)出濃厚的興趣,例如ABB和亞馬遜等。
ABB是全球最大的工業(yè)機(jī)器人公司,而Vicarious正努力將他們的研究成果把機(jī)器人變得更智能。而亞馬遜的倉儲(chǔ)機(jī)器人也有潛在的應(yīng)用場(chǎng)景。
由于目前深度學(xué)習(xí)的局限性,深度學(xué)習(xí)很難達(dá)到通用人工智能。Vicarious目前的研究,是深度學(xué)習(xí)的有益補(bǔ)充。
無論是在學(xué)術(shù)界還是工業(yè)界,研究方向和產(chǎn)品的多樣性都有利于推進(jìn)人工智能的進(jìn)步。
>>>延伸閱讀
作者: Will Knight,機(jī)器之心(ID:almosthuman2014)編譯
創(chuàng)立于 2010 年的人工智能創(chuàng)業(yè)公司 Vicarious 在 2013 年宣布破解 CAPTCHA 之后,受到了連線、MIT 科技評(píng)論等媒體的廣泛關(guān)注。而后,Yann Lecun 公開發(fā)文稱,謹(jǐn)防人工智能炒作,并稱其為教科書式的反面范例。他認(rèn)為,在獲得基準(zhǔn)普遍接受的頂級(jí)成果之前,千萬,千萬不要不要輕易相信人工智能創(chuàng)業(yè)公司的模糊聲明。MIT 科技評(píng)論近期再次發(fā)文報(bào)道 Vicarious,表示這家后來一直潛形匿影的公司將于今年晚些時(shí)候發(fā)布論文和 Demo。(附:Yann Lecun 公開共享的對(duì) Vicarious 的評(píng)價(jià)。)
如果沒有想象,生活將會(huì)多無聊啊。事實(shí)上,計(jì)算機(jī)最大的問題可能就是他們沒有任何想象力。
正是這一想法促使創(chuàng)始人們成立了 Vicarious,這是一家神秘的人工智能公司,得到了硅谷一些最知名的公司的支持。受到信息流過大腦的方式的啟發(fā),Vicarious 正在開發(fā)一種處理數(shù)據(jù)的新方式。公司的高層人員說,這賦予計(jì)算機(jī)類似想象的東西,他們希望這能幫助機(jī)器變得更為智能。
實(shí)際上,Vicarious 也把賭注押在了目前熱門的人工智能上。一些公司,如谷歌,F(xiàn)acebook,亞馬遜和微軟通過給龐大的神經(jīng)網(wǎng)絡(luò)灌輸大量的數(shù)據(jù),即深度學(xué)習(xí)過程,已經(jīng)在過去幾年里取得了驚人的進(jìn)步。比如,當(dāng)深度學(xué)習(xí)系統(tǒng)被足夠的例子訓(xùn)練過后,它就能以非常高的精確度,識(shí)別出特定的臉或者動(dòng)物類型。但是,那些神經(jīng)網(wǎng)絡(luò)都僅僅是真實(shí)大腦內(nèi)部所發(fā)現(xiàn)的(神經(jīng)結(jié)構(gòu))的粗略近似。
Vicarious 采用了一種新的神經(jīng)網(wǎng)絡(luò)算法,該算法體現(xiàn)了更多生物上的特征。它的一個(gè)重要特點(diǎn)是,在學(xué)習(xí)了一項(xiàng)信息之后,它能夠預(yù)想這個(gè)信息在其它情景中是什么樣的——這是一種人造的想象方式。該公司的創(chuàng)始人認(rèn)為,要使機(jī)器表現(xiàn)出更像人類的智慧,我們十分需要從根本上完全不同的設(shè)計(jì)。以后,計(jì)算機(jī)將不得不從更少的數(shù)據(jù)中學(xué)習(xí),并能更輕松地識(shí)別刺激或者概念。
盡管在早期吸引了大量關(guān)注,但是 Vicarious 在過去幾年里一直保持低調(diào)。但在今年,該公司表示,他們將會(huì)公布他們研究的細(xì)節(jié),并且承諾會(huì)展示一些令人瞠目的 demo,這些 demo 將展示給人們,電腦在擁有了想象后是多么的有用。
Vicarious 公司總部看起來卻并不像人工智能革命的中心。該公司的辦公室位于從帕洛阿爾托到舊金山灣的一小段車程處(我們被要求不透露其精確位置),該辦公室很平?!c一家麥當(dāng)勞店只有一箭之遙,并且離一家牙醫(yī)診所也只有幾個(gè)臺(tái)階之遠(yuǎn)。然而,公司內(nèi)部卻充滿著高科技創(chuàng)業(yè)公司的活力氣息。當(dāng)我拜訪的時(shí)候,十余個(gè)工程師都正在努力工作著,其中幾個(gè)使用的是令人印象深刻的跑步機(jī)辦公桌。一些工程師的桌子上擺放著微軟的 Kinect 3-D傳感器,該公司的 33 歲 CEO D. Scott Phoenix 以不無自豪地說:「我們正非??焖俚慕咏覀兯谕挠?jì)算能力,這種計(jì)算能力能夠(讓我們)在人工智能上做一些有趣的事,」在我進(jìn)來后不久,他告訴我。「15 年后,最快的計(jì)算機(jī)每秒處理的操作數(shù),將會(huì)比所有人的腦神經(jīng)操作數(shù)還要多。所以我們真的很接近了。」
然而,Vicarious 不僅僅致力于提高更多的計(jì)算機(jī)能力。Phoenix 說,Vicarious 創(chuàng)造的數(shù)學(xué)方法將會(huì)更加類似人類大腦的信息處理過程。確實(shí),目前應(yīng)用在人工智能中的神經(jīng)網(wǎng)絡(luò),和真實(shí)大腦里的神經(jīng)元、樹突和突觸之間的相似度是極其有限的。
Phoenix 說,人工神經(jīng)網(wǎng)絡(luò)一個(gè)最明顯的不足是,信息是單向流動(dòng)的?!溉绻阍谝粋€(gè)典型的神經(jīng)網(wǎng)絡(luò)里看信息流,它是一個(gè)前饋結(jié)構(gòu),」他說?!傅菍?shí)際上,在大腦中,反饋連接比前饋連接還要多——所以,(目前的方法)丟失了一多半的信息流?!?/span>
一個(gè)擁有想象力這個(gè)十分「人類」的能力的計(jì)算機(jī),聽起來是十分神秘的。不可否認(rèn),光是考慮想象力可能成為人工智能下一重大進(jìn)步的關(guān)鍵,就已經(jīng)十分誘人了。
Vicarious 已經(jīng)證實(shí),他們的方法能夠開發(fā)一個(gè)十分準(zhǔn)確的視覺系統(tǒng),且效果驚人。在 2013 年,這一系統(tǒng)已能夠破解 CAPTCHA(用于防止垃圾程序惡意注冊(cè)賬號(hào)的驗(yàn)證圖片)。就像 Phoenix 解釋的那樣,嵌入 Vicarious 系統(tǒng)的這一反饋機(jī)制能讓其在圖片失真或者部分模糊的情況下,想象字符可能會(huì)是什么樣的。
在一塊白板上,Phoenix 概括描述了系統(tǒng)核心方法的一些細(xì)節(jié)。但是更具體的細(xì)節(jié)依然保密,直到概述這一 CAPTCHA 方法的科學(xué)論文在今年晚些時(shí)候發(fā)表。
原理上,這個(gè)視覺系統(tǒng)可用于其他許多實(shí)際應(yīng)用,比如更準(zhǔn)確地識(shí)別架子上的目標(biāo),或者更智能地識(shí)別現(xiàn)實(shí)世界的場(chǎng)景。公司的創(chuàng)建者們也表示,他們的方法能擴(kuò)展到其他更為復(fù)雜的智能領(lǐng)域,包括語言和邏輯推理。
Phoenix 說,公司可能會(huì)在今年晚些時(shí)候放出一部有關(guān)機(jī)器人的 Demo。確實(shí),公司網(wǎng)站的招聘列表中有一些機(jī)器人專家的職位?,F(xiàn)在的機(jī)器人,在挑揀不熟悉的、排列奇怪的、或者部分模糊的目標(biāo)上表現(xiàn)不好,因?yàn)樗鼈冸y以識(shí)別對(duì)象到底是什么。「如果你去亞馬遜設(shè)備那里就能看到,大部分時(shí)間工人挑揀目標(biāo)甚至都不帶看的,」他解釋說。「使用感官運(yùn)用模擬器,他們?cè)谙胂竽繕?biāo)在那里,以及想象手指會(huì)碰觸到目標(biāo)的那個(gè)地方。」
Phoenix 是公司的領(lǐng)導(dǎo)者,其聯(lián)合創(chuàng)始人,Dileep George,是公司的技術(shù)規(guī)劃者。George 出生于印度,在斯坦福大學(xué)獲得電子工程博士學(xué)位。在博士研究即將結(jié)束的時(shí)候,他將注意力轉(zhuǎn)到了神經(jīng)科學(xué)上。在 2005 年,他與 Jeff Hawkins 聯(lián)合創(chuàng)立了 Numenta 公司,后者是 Palm Computing 公司的創(chuàng)立者。但在 2010 年,George 離開了 Numenta,致力于踐行關(guān)于大腦信息處理背后的數(shù)學(xué)原理的想法,同年,他與 Phonexi 創(chuàng)立了 Vicarious。
在我第一次造訪的時(shí)候,在電梯里偶遇了 George。他是一個(gè)謙遜的、說話很靜的人,有著濃重的口音。但在極重要的事物上,他也相當(dāng)?shù)那笞C。
到目前為止,這一關(guān)于未來人工智能的宏偉藍(lán)圖已經(jīng)幫助 Vicarious 獲得了令人驚奇的 7200 萬美元的融資。其投資者列表看起來也像是科技領(lǐng)域的名人錄。早期的資金來自于 Facebook 的前 CTO Dustin Moskovitz,以及 Quora 的聯(lián)合創(chuàng)始人 Adam D’Angelo。后來的基金來自于 Peter Thiel、Mark Zuckerberg、Jeff Bezos、和 Elon Musk。
很多人非??释吹降氖牵舜驍?CAPTCHAs,Vicarious 還做了什么?!溉绻麄兘衲昴芟裎覀冋故疽恍┬碌臇|西,我會(huì)愛上它?!刮餮艌D艾倫人工智能研究所的 CEO Oren Etzioni 表示。相比于谷歌、Facebook 、百度,Vicarious 還未發(fā)表任何論文,也未發(fā)布研究人員能使用的工具?!福╒icarious的)人們非常棒,(他們研究的)問題也非常棒,」Etzioni 說,「但現(xiàn)在是時(shí)候拿些東西出來了。」
對(duì)于拿些投資了 Vicarious 的人來說,這家公司的宏偉目標(biāo)使等待是值得的。一家投資了 Vicarious 的投資公司 Data Collective 的合伙人 Matt Ocko 表示,即使這需要人們等待一段時(shí)間,但潛在的回報(bào)看起來是如此巨大,令人愿意賭上一把。一個(gè)好的機(jī)器學(xué)習(xí)方法,可以應(yīng)用于所有處理大數(shù)據(jù)的產(chǎn)業(yè),他說?!竀icarious 的方法,是我目前見過的最可靠的?!?/span>
Ocko 還表示,Vicarious 已經(jīng)證明,他們的研究成果能夠被商業(yè)化。「我們會(huì)十分謹(jǐn)慎地實(shí)現(xiàn)這一點(diǎn),」他說。
試看今年 Vicarious 是否能夠借助其論文和 demo,同樣激發(fā)其他人工智能研究者和技術(shù)專家的信心。如果它真的做到了,Vicarious 能夠迅速從硅谷最熱門的團(tuán)隊(duì)之一,發(fā)展為其成長(zhǎng)最迅猛的企業(yè)。
這肯定也是該公司的創(chuàng)始人們希望看到的一件事。
但對(duì)于該公司,同樣存在質(zhì)疑和批評(píng)的聲音,在 2013 年 Vicarious 受到廣泛關(guān)注之后,Yann Lecun 就公開表示謹(jǐn)防人工智能炒作,認(rèn)為它是教科書式的反面范例。不知接下來 Vicarious 的論文和 demo 是否能讓 LeCun 改變看法。
附:2013年 Yann LeCun 對(duì) Vicarious 的評(píng)價(jià):
人工智能創(chuàng)業(yè)公司 Vicarious 聲稱它們的一個(gè)系統(tǒng)能解決 CAPTCHA(全自動(dòng)區(qū)分計(jì)算機(jī)和人類的圖靈測(cè)試)問題,成功率達(dá)到「90%」。
謹(jǐn)防:這是一個(gè)人工智能炒作教科書式的反面范例。
炒作對(duì)人工智能而言非常的危險(xiǎn)。在過去的 50 多年中,炒作四度殺死了人工智能。人工智能炒作必須要被制止。
可能 Vicarious 在自己構(gòu)造的一些 CAPTCHA 數(shù)據(jù)集上,準(zhǔn)確率能「升到 90%」。但是:
打破 CAPTCHAs 幾乎不是一個(gè)有趣的任務(wù),除非你是一個(gè)垃圾廣告者。
在自己編造的數(shù)據(jù)集上,很容易就能獲得成功。其他人也能以同樣的方式超過你。
識(shí)別圖片上的物體,要比打破 CAPTCHAs 難的多。一些深度學(xué)習(xí)系統(tǒng)已經(jīng)能夠相當(dāng)精確地做到這一點(diǎn)。谷歌、百度都在開發(fā)這樣的系統(tǒng)。
對(duì)字符串的同步分割、識(shí)別幾乎不算一個(gè)突破。在這里你能看到一個(gè)(http://yann.lecun.com/exdb/lenet/index.html)20 多年前的demo。
悲哀的是,這一聲明被數(shù)個(gè)出版物發(fā)表,包括 MIT 科技評(píng)論、福布斯等。
這里給科學(xué)/技術(shù)新聞?dòng)浾咛嵋粋€(gè)建議:千萬,千萬不要不要輕易相信人工智能創(chuàng)業(yè)公司的模糊聲明,除非他們的最新成果已獲得可靠的行業(yè)標(biāo)準(zhǔn)的認(rèn)可。
這一點(diǎn)在圖像、語音識(shí)別等領(lǐng)域尤其重要,因?yàn)樵谶@兩個(gè)領(lǐng)域存在非常好的標(biāo)準(zhǔn)。就圖像識(shí)別而言,一個(gè)非常好的標(biāo)準(zhǔn)范例是 ImageNet 大規(guī)模視覺識(shí)別挑戰(zhàn)賽( ImageNet Large Scale Visual Recognition Challenge)。
當(dāng)一個(gè)創(chuàng)業(yè)公司聲稱在一些隨機(jī)任務(wù)中達(dá)到「90% 準(zhǔn)確率」時(shí),不要認(rèn)為這就具有新聞價(jià)值。如果一家公司還聲稱「我們正在開發(fā)基于人腦計(jì)算原則的機(jī)器學(xué)習(xí)軟件」或者使用「遞歸皮層網(wǎng)絡(luò)(Recursive Cortical Network)」這樣華麗的名詞時(shí),我們需要抱有更加懷疑的態(tài)度。
目前已有一些令人印象深刻的深度學(xué)習(xí)應(yīng)用(例如,谷歌、百度、微軟、IBM、及其它一些創(chuàng)業(yè)公司),但(Vicarious)并不在此列。
谷歌的自動(dòng)圖片標(biāo)簽和百度的圖片檢索系統(tǒng),要比這一聲明中的系統(tǒng)強(qiáng)大得多。就算只談字符識(shí)別,谷歌的 StreetView 用于識(shí)別房屋門牌號(hào)的系統(tǒng),也要比這個(gè)更加矚目。
過去 50 多年,人工智能曾因?yàn)槌醋魉亩取杆劳觥梗?span>人們發(fā)表宏偉的目標(biāo)(通常是為了吸引潛在的投資者或資產(chǎn)公司)卻無法實(shí)現(xiàn)。然后負(fù)面影響隨之而來。這在神經(jīng)網(wǎng)絡(luò)上已經(jīng)發(fā)生過兩次:一次在 60 年代末,一次在 90 年代中期。
不要再讓其再次發(fā)生。謹(jǐn)防炒作。
順帶一提,除了垃圾廣告者和計(jì)算機(jī)安全研究人員,沒有人對(duì)破解 CAPTCHAs 有興趣。這也是為什么你找不到關(guān)于這一主題太多的計(jì)算機(jī)視覺論文的原因。這也是為什么即使存在一個(gè)標(biāo)準(zhǔn)的數(shù)據(jù)集,也難以打破記錄的原因。
聯(lián)系客服