剛剛,Jeff Dean代表Google AI,完整總結(jié)了2018。
這也是姐夫作為全球AI第一大廠總負(fù)責(zé)人的第一次年度匯報。
他說,2018真是令A(yù)I工作者興奮的一年。
學(xué)術(shù)和應(yīng)用兩開花,開源和新技術(shù)同步推進(jìn)。
從重要AI技術(shù)應(yīng)用突破講起,到展望2019結(jié)束。Jeff Dean總結(jié)了14個大方面的AI成果,并透露全年AI論文發(fā)表數(shù)達(dá)608篇。
涵蓋量子計算、感知技術(shù)、計算攝影、算法框架、AutoML、機器人、醫(yī)療AI,計算力和TPU……
樁樁件件,不僅在當(dāng)前推動了AI作用社會方方面面,而且也是對未來趨勢的小小展示。
毫不夸張地說,欲知2018 AI技術(shù)進(jìn)展,看Jeff這篇總結(jié)再合適不過;欲知2019 AI會走向何方,看Jeff這篇也能獲益良多。
為了方便閱讀,我們先整理了一個小目錄給你:
智能助手:打電話回郵件,都靠AI
量子計算:72量子比特設(shè)備、開源框架、可行的量子神經(jīng)網(wǎng)絡(luò)……
自然語言理解:從Transformer到BERT,碾壓各項NLP任務(wù)
感知:圖像識別和場景理解,語音增強與合成
拍照:照片動起來,夜景亮起來
算法和理論:谷歌帝國基石,從優(yōu)化、算法選擇到應(yīng)用
軟件系統(tǒng):Mesh TensorFlow、TF-Ranking、JAX、隱私與安全
AutoML:自動找出最高效的網(wǎng)絡(luò)結(jié)構(gòu)
TPU:給全世界提供大量算力
開源軟件和數(shù)據(jù)集:遠(yuǎn)不止多巴胺,大量資源預(yù)警
機器人學(xué):從多個角度入手,讓機器人更獨立,更強大
人工智能在其他領(lǐng)域的應(yīng)用:物理學(xué)、生命科學(xué)、天文學(xué)
醫(yī)療:從視網(wǎng)膜診斷病癥到癌癥預(yù)測,從輔助診斷到拓展到臨床預(yù)測
合作研究:投入大量資源資助教師、學(xué)生和各方面研究人員進(jìn)行研究
新地方、新面孔:持續(xù)在世界各地擴(kuò)張,并廣納人才
展望2019:對谷歌以及更廣泛的研究和工程領(lǐng)域產(chǎn)生更大影響
AI原則:Google AI歷史性指導(dǎo)準(zhǔn)則,爭議性軍事項目之后制定了7大原則
AI社會公益:展示Google利用AI技術(shù)推動社會公益的案例
完整報告如下:
Google AI也在不斷打造新技術(shù)應(yīng)用幫助用戶提升效率,創(chuàng)造更大的社會價值。
簡而言之:努力打造Google AI小助手工具產(chǎn)品。
2018最典型的莫過于Google Duplex,這是一個匯集語音識別、語義理解和對話的AI系統(tǒng),可以作為你的虛擬電話助手,訂餐廳、預(yù)約會議時間都不在話下。
還有Smart Compose——智能回復(fù)。能夠基于語義分析和文本預(yù)測,幫助用戶提升郵件回復(fù)的效率。
同樣的還有Sound Search和Smart Linkify,都是AI提升用戶效率的嘗試。
Google目前也在圍繞上述AI產(chǎn)品,展開多語言支持的努力,希望類似的產(chǎn)品通過小數(shù)據(jù)訓(xùn)練學(xué)習(xí),就能對全球更多地區(qū)和用戶產(chǎn)生更好的影響。
相關(guān)報道:
量子計算是一種新興的計算范式,有望解決經(jīng)典計算機無法解決的問題。
在過去的幾年里,我們一直積極進(jìn)行相關(guān)的研究,我們相信該領(lǐng)域正處在實現(xiàn)量子霸權(quán)能力的轉(zhuǎn)折階段,這將是量子計算領(lǐng)域的一個分水嶺。
2018年,我們?nèi)〉昧嗽S多令人興奮的成果,開發(fā)了一種新的72量子比特的量子計算設(shè)備Bristlecone。在邁向量子霸權(quán)的過程中,這臺設(shè)備擴(kuò)展了量子計算機可以解決問題的規(guī)模。
相關(guān)報道:
我們還發(fā)布了量子計算機的開源編程框架Cirq,并探討了量子計算機如何用于神經(jīng)網(wǎng)絡(luò)。
此外,我們還分享了理解量子處理器性能波動的經(jīng)驗與技術(shù),以及量子計算機如何作為神經(jīng)網(wǎng)絡(luò)計算底層的一些想法。
相關(guān)報道:
谷歌證明量子神經(jīng)網(wǎng)絡(luò)可訓(xùn)練圖像分類
2019年,我們期待在量子計算領(lǐng)域取得激動人心的成果!
谷歌的自然語言研究在2018年取得了令人興奮的成果,既有基礎(chǔ)研究,也有以產(chǎn)品為中心的研究。
從2017年起,我們開始對Transformer進(jìn)行改進(jìn),去年開發(fā)了一個名為“通用Transformer”模型的新的并行時間版本,該版本顯示了包括翻譯和語言推理在內(nèi)的許多自然語言任務(wù)上的巨大進(jìn)步。
相關(guān)論文:
Universal Transformers
https://arxiv.org/pdf/1807.03819.pdf
我們還開發(fā)了BERT,這是第一個深度雙向、無監(jiān)督的語言表示,僅使用純文本語料庫進(jìn)行預(yù)訓(xùn)練,然后可以使用遷移學(xué)習(xí)對各種自然語言任務(wù)進(jìn)行微調(diào)。
相關(guān)報道:
全面超越人類!Google稱霸SQuAD,BERT橫掃11大NLP測試
在11項自然語言任務(wù)上,BERT比以往最先進(jìn)成果有顯著的改進(jìn)。
除了與各種研究團(tuán)隊合作以實現(xiàn)AI幫助寫郵件(Smart Compose)和虛擬電話助手(Duplex)外,我們還努力使谷歌智能助手能夠更好地處理多語言使用案例,目標(biāo)是使助手能與所有用戶進(jìn)行自然的對話。
相關(guān)報道:
我們的感知研究解決了讓計算機理解圖像、聲音、音樂和視頻的難題,并為圖像捕捉、壓縮、處理、創(chuàng)造性表達(dá)和增強現(xiàn)實提供了更強大的工具。
2018年,我們的技術(shù)提高了Google Photos組織照片的能力,這項功能也是用戶最關(guān)心的內(nèi)容,比如給人和寵物照片分組。
Google Lens和Google Assistant使用戶能夠了解周圍世界,實時獲取問題的答案,還能在讓你在谷歌圖像搜索中做更多的事情。
谷歌AI使命的一個關(guān)鍵方面是讓其他人從我們的技術(shù)中受益,我們在改進(jìn)Google API一部分的功能和構(gòu)建模塊方面取得了很大進(jìn)展。
例如Cloud ML API中視覺和視頻方面的改進(jìn)和新功能,以及通過ML工具包在面部識別相關(guān)的設(shè)備上構(gòu)建模塊。
相關(guān)工具:
https://cloud.google.com/blog/products/ai-machine-learning/closer-look-our-newest-google-cloud-ai-capabilities-developers
2018年,我們對學(xué)術(shù)研究的貢獻(xiàn)包括在3D場景理解的深度學(xué)習(xí)方面的進(jìn)步,例如立體放大(Stereo Magnification),這使我們得能夠用多張圖像合成場景的逼真視圖。
相關(guān)論文:
Stereo Magnification: Learning View Synthesis using Multiplane Images
https://arxiv.org/abs/1805.09817
我們正在進(jìn)行關(guān)于更好地理解圖像和視頻的研究,使用戶能夠在谷歌產(chǎn)品中找到、組織、增強和改善圖像和視頻,比如Google Photos、YouTube、搜索等等。
2018年,我們?nèi)〉昧硕囗楋@著的進(jìn)步,包括:
快速自下而上的聯(lián)合姿態(tài)估計和人物實例的分割模型
PersonLab: Person Pose Estimation and Instance Segmentation with a Bottom-Up, Part-Based, Geometric Embedding Model
https://arxiv.org/abs/1803.08225
將復(fù)雜運動可視化的系統(tǒng)
MoSculp: Interactive Visualization of Shape and Time
http://mosculp.csail.mit.edu
對人和物體之間時空關(guān)系建模的系統(tǒng)
Actor-Centric Relation Network
https://arxiv.org/abs/1807.10982
基于distillation和3D卷積的視頻動作識別的改進(jìn)
D3D: Distilled 3D Networks for Video Action Recognition
https://arxiv.org/abs/1812.08249
Rethinking Spatiotemporal Feature Learning: Speed-Accuracy Trade-offs in Video Classification
https://arxiv.org/abs/1712.04851
在音頻領(lǐng)域,我們提出了一種無監(jiān)督學(xué)習(xí)語義音頻表示的方法,并且顯著改進(jìn)了語音合成,讓它更生動、更像人類。
相關(guān)論文:
Unsupervised Learning of Semantic Audio Representations
https://ieeexplore.ieee.org/abstract/document/8461684
Towards End-to-End Prosody Transfer for Expressive Speech Synthesis with Tacotron
https://arxiv.org/abs/1803.09047
多模態(tài)感知是一個越來越重要的研究課題。Looking to Listen將輸入視頻中的視覺和聽覺提示結(jié)合起來,分離并增強視頻中說話者的聲音。
相關(guān)論文:
Looking to Listen at the Cocktail Party: A Speaker-Independent Audio-Visual Model for Speech Separation
https://arxiv.org/abs/1804.03619
這項技術(shù)可以支持一系列應(yīng)用:從視頻中的語音增強和識別,到視頻會議,再到改進(jìn)的助聽器,尤其是在有多人說話的情況下。
在資源受限的平臺上實現(xiàn)感知變得越來越重要。MobileNetV2是谷歌的下一代移動計算機視覺模型,廣泛應(yīng)用于學(xué)術(shù)界和工業(yè)界。
相關(guān)論文:
MobileNetV2: Inverted Residuals and Linear Bottlenecks
http://openaccess.thecvf.com/content_cvpr_2018/papers/Sandler_MobileNetV2_Inverted_Residuals_CVPR_2018_paper.pdf
MorphNet提出了一種學(xué)習(xí)深層網(wǎng)絡(luò)結(jié)構(gòu)的有效方法,這種方法可以在計算資源受到限制時,全面提高圖像和音頻模型的性能,最近在自動生成移動網(wǎng)絡(luò)架構(gòu)方面的工作表明,實現(xiàn)更高的性能也是可能的。
相關(guān)論文:
MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks
http://openaccess.thecvf.com/content_cvpr_2018/html/Gordon_MorphNet_Fast__CVPR_2018_paper.html
過去幾年中,手機相機的拍照質(zhì)量和功能提升十分顯著,雖然手機實際物理傳感器的進(jìn)步是一方面,不過更大的進(jìn)步則是拍照算法方面的。
我們的研究團(tuán)隊發(fā)布了新技術(shù),與Google的安卓和消費者硬件團(tuán)隊密切合作,讓這項新技術(shù)在最新的Pixel等安卓手機和其他設(shè)備上落地。
2014年,我們發(fā)布了HDR+,一種依靠計算機軟件將單幀對齊融合的技術(shù)。HDR+最初應(yīng)用的主要目的是為了讓圖片比單次曝光有更大的動態(tài)范圍,但隨后,拍攝動態(tài)幀并計算分析成為了2018年相機進(jìn)步的一種通用方式。例如Pixel 2中的動態(tài)照片(Motion Photos)功能和動態(tài)劇照(Motion Stills)里的AR模式。
相關(guān)博客:
動態(tài)照片
https://ai.googleblog.com/2018/03/behind-motion-photos-technology-in.html
動態(tài)劇照AR模式
https://ai.googleblog.com/2018/02/the-instant-motion-tracking-behind.html
2018年,我們在拍照算法方面的主要工作之一就是創(chuàng)造了夜視(Night Sight)功能,讓Pixel手機的相機能看到黑暗中的物體,這項功能贏得了媒體和用戶的贊譽。
相關(guān)報道:
宛如白晝,谷歌發(fā)布最強夜景拍照AI算法,單攝秒殺一眾蘋果華為三星
當(dāng)然,夜視只是我們團(tuán)隊開發(fā)的多種幫助用戶攝影的軟件功能之一,另外還有用機器學(xué)習(xí)提供更好的人像模式、用Super Res Zoom看得更清晰更遠(yuǎn)、用Top Shot和Google Clips捕捉更好的瞬間。
相關(guān)博客:
機器學(xué)習(xí)人像模式
https://ai.googleblog.com/2018/11/learning-to-predict-depth-on-pixel-3.html
Super Res Zoom
https://ai.googleblog.com/2018/10/see-better-and-further-with-super-res.html
Top Shot
https://ai.googleblog.com/2018/12/top-shot-on-pixel-3.html
Google Clips
https://ai.googleblog.com/2018/05/automatic-photography-with-google-clips.html
算法是Google系統(tǒng)的基干,關(guān)系到我們所有產(chǎn)品,從Google Trips旅行App背后的路徑選擇算法,到谷歌云的哈希一致性校驗都是如此。
相關(guān)論文:
Consistent Hashing with Bounded Loads
https://arxiv.org/abs/1608.01350
過去一年,我們繼續(xù)研究算法和理論,覆蓋了從理論基礎(chǔ)到應(yīng)用算法,從圖數(shù)據(jù)挖掘到隱私保護(hù)計算。
我們在優(yōu)化方面的工作涉及到機器學(xué)習(xí)的持續(xù)優(yōu)化、分布式組合優(yōu)化等領(lǐng)域。
在持續(xù)優(yōu)化上,我們研究隨機優(yōu)化算法訓(xùn)練神經(jīng)網(wǎng)絡(luò)的收斂性的工作,展示了ADAM變體等一些流行的基于梯度優(yōu)化方法存在的問題,但也為新的基于梯度的優(yōu)化算法提供了監(jiān)視的基礎(chǔ),獲得了ICLR 2018最佳論文。
相關(guān)論文:
On the Convergence of Adam and Beyond
https://openreview.net/forum?id=ryQu7f-RZ
上圖就是ADAM和AMSGRAD在一個簡單一維凸問題模擬例子上的性能對比,左中兩幅是在線設(shè)置,最右一幅是隨機設(shè)置。
在分布式優(yōu)化上,我們努力提高一些經(jīng)過充分研究的組合優(yōu)化問題的循環(huán)和通信復(fù)雜性,比如通過round compression、core-sets、以及子模塊最大化、k核分解等進(jìn)行圖匹配。
相關(guān)論文:
Round Compression for Parallel Matching Algorithms
https://dl.acm.org/citation.cfm?id=3188764
Optimal Distributed Submodular Optimization via Sketching
https://dl.acm.org/citation.cfm?id=3220081
Parallel and Streaming Algorithms for K-Core Decomposition
http://proceedings.mlr.press/v80/esfandiari18a/esfandiari18a.pdf
在更多應(yīng)用層面,我們開發(fā)的算法技術(shù),能通過sketching實現(xiàn)大規(guī)模集合覆蓋,能為數(shù)萬億邊的圖解決平衡分區(qū)和分層聚類問題。
我們關(guān)于online delivery services的工作,還獲得了WWW’18會議的最佳論文呢提名。
相關(guān)論文:
Minimizing Latency in Online Ride and Delivery Services
https://dl.acm.org/citation.cfm?doid=3178876.3186104
最后,我們的開源優(yōu)化平臺OR-tools在Minizinc約束規(guī)劃競賽中獲得了4枚金牌。
平臺主頁:
https://developers.google.com/optimization/
在算法選擇理論中,我們提出了新的模型,研究了重建(reconstruction)問題、學(xué)習(xí)多項logit混合問題。我們還研究了可通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的函數(shù)類,以及如何使用機器學(xué)習(xí)來改進(jìn)經(jīng)典在線算法。
相關(guān)論文:
A Discrete Choice Model for Subset Selection
https://dl.acm.org/citation.cfm?doid=3159652.3159702
Discrete Choice, Permutations, and Reconstruction
https://epubs.siam.org/doi/10.1137/1.9781611975031.38
Learning a Mixture of Two Multinomial Logits
http://proceedings.mlr.press/v80/chierichetti18a.html
Convergence Results for Neural Networks via Electrodynamics
http://drops.dagstuhl.de/opus/volltexte/2018/8352/
Improving Online Algorithms via ML Predictions
http://papers.nips.cc/paper/8174-improving-online-algorithms-via-ml-predictions
對Google來說還有一件事非常重要,那就是理解具有強隱私保障的學(xué)習(xí)技術(shù)。
在這一領(lǐng)域,我們開發(fā)了兩種新方法,分析如何通過迭代和混排來強化差分隱私。
我們還運用差分隱私技術(shù),設(shè)計了對博弈具有魯棒性的激勵感知學(xué)習(xí)方法。這樣的學(xué)習(xí)技術(shù)可以用于高效在線市場設(shè)計。
相關(guān)論文:
Privacy Amplification by Iteration
https://ieeexplore.ieee.org/abstract/document/8555134
Amplification by Shuffling: From Local to Central Differential Privacy via Anonymity
https://epubs.siam.org/doi/abs/10.1137/1.9781611975482.151
Incentive-Aware Learning for Large Markets
https://dl.acm.org/citation.cfm?id=3186042
我們在市場算法領(lǐng)域的新研究,還包括幫助廣告主測試廣告競價激勵兼容性的技術(shù),優(yōu)化App內(nèi)廣告刷新的技術(shù)等。
相關(guān)論文:
Testing Incentive Compatibility in Display Ad Auctions
https://pdfs.semanticscholar.org/30a7/773faea229efa6a47178c396ef7b9617fcef.pdf
Optimizing Ad Refresh In Mobile App Advertising
https://dl.acm.org/citation.cfm?id=3186045
我們也推動了重復(fù)拍賣動態(tài)機制的發(fā)展,展示了對缺乏未來預(yù)測、對嘈雜預(yù)測、對異質(zhì)買方行為具有魯棒性的動態(tài)拍賣機制,還把研究結(jié)果擴(kuò)展到動態(tài)雙重拍賣上。
最后,關(guān)于在線優(yōu)化、在線學(xué)習(xí)的魯棒性,我們開發(fā)了新的在線分配算法,用于流量峰值的隨即輸入,以及對損壞的數(shù)據(jù)具有魯棒性的新型bandit算法。
我們在軟件系統(tǒng)方面的一大部分研究依然是在建設(shè)機器學(xué)習(xí)模型和TensorFlow上。
例如,我們發(fā)布了TensorFlow 1.0動態(tài)流程控制的動態(tài)設(shè)計與實踐,我們的一些新研究引入了一個我們稱之為Mesh TensorFlow的系統(tǒng),這使得用模型并行指定大規(guī)模分布式計算變得容易,有時會有數(shù)十億個參數(shù)。
相關(guān)論文:
The Case for Learned Index Structures
https://arxiv.org/abs/1712.01208
Dynamic Control Flow in Large-Scale Machine Learning
http://delivery.acm.org/10.1145/3200000/3190551/a18-yu.pdf
Mesh-TensorFlow: Deep Learning for Supercomputers
https://papers.nips.cc/paper/8242-mesh-tensorflow-deep-learning-for-supercomputers
另一個例子是,我們發(fā)布了一個使用TensorFlow的可擴(kuò)展深度神經(jīng)排序庫。
相關(guān)論文:
TF-Ranking: Scalable TensorFlow Library for Learning-to-Rank
https://arxiv.org/abs/1812.00073
我們還發(fā)布了JAX,這是一個加速器支持的NumPy變體,支持自動將Python函數(shù)區(qū)分為任意順序。雖然JAX不是TensorFlow的一部分,但它利用了一些相同的底層軟件基礎(chǔ)架構(gòu)(例如XLA),并且它的一些想法和算法對我們的TensorFlow項目有所幫助。
相關(guān)開源項目:
JAX
https://github.com/google/jax
最后,我們繼續(xù)研究機器學(xué)習(xí)的安全性和隱私性,以及在人工智能系統(tǒng)中老發(fā)安全和隱私的開源框架,如CleverHans和TensorFlow Privacy。
相關(guān)開源項目:
CleverHans
https://github.com/tensorflow/cleverhans
TensorFlow Privacy
https://github.com/tensorflow/privacy
我們的另一個重要的研究方向是將機器學(xué)習(xí)在軟件系統(tǒng)中在堆棧的許多層面上應(yīng)用。
例如,我們繼續(xù)努力使用分層模型將計算部署到設(shè)備上,并且我們有助于學(xué)習(xí)內(nèi)存訪問模式。我們還繼續(xù)探索如何使用學(xué)習(xí)指數(shù)來取代數(shù)據(jù)庫系統(tǒng)和存儲系統(tǒng)中的傳統(tǒng)索引結(jié)構(gòu)。正如我去年寫下的,我們在計算機系統(tǒng)中使用機器學(xué)習(xí)僅僅停留在表面。
相關(guān)論文:
A HIERARCHICAL MODEL FOR DEVICE PLACEMENT
https://openreview.net/pdf?id=Hkc-TeZ0W
Learning Memory Access Patterns
http://proceedings.mlr.press/v80/hashemi18a/hashemi18a.pdf
2018年,得益于Google的Project Zero團(tuán)隊與其他人的合作,我們發(fā)現(xiàn)了Spectre和Meltdown,現(xiàn)代計算機處理器中新的嚴(yán)重安全漏洞,這兩者以及其他相關(guān)的漏洞讓計算機架構(gòu)研究者們相當(dāng)忙碌。
在我們繼續(xù)努力模擬CPU行為時,我們的編譯器研究團(tuán)隊將他們用于測量機器指令延遲和端口壓力的工具集成到LLVM中,從而可以做出更好的編譯決策。
相關(guān)文檔:
llvm-exegesis - LLVM Machine Instruction Benchmark
https://llvm.org/docs/CommandGuide/llvm-exegesis.html
Google產(chǎn)品,我們的云產(chǎn)品和機器學(xué)習(xí)模型推理決定了計算、存儲和網(wǎng)絡(luò)提供大規(guī)模、可靠、高效的技術(shù)基礎(chǔ)架構(gòu)的能力。
過去一年的一些研究亮點包括Google軟件定義網(wǎng)絡(luò)WAN的發(fā)展,一個獨立的聯(lián)合查詢處理平臺,可以在許多存儲系統(tǒng)中對基于不同文件格式存儲的數(shù)據(jù)執(zhí)行SQL查詢(BigTable、Spanner、Google Spreadsheets等)以及我們廣泛使用的代碼審查報告,調(diào)查Google代碼審查背后的動機,當(dāng)前的實踐以及開發(fā)人員的滿意度和挑戰(zhàn)。
相關(guān)論文:
Modern Code Review: A Case Study at Google
https://storage.googleapis.com/pub-tools-public-publication-data/pdf/80735342aebcbfc8af4878373f842c25323cb985.pdf
F1 Query: Declarative Querying at Scale
https://storage.googleapis.com/pub-tools-public-publication-data/pdf/fa380016eccb33ac5e92c84f7b5eec136e73d3f1.pdf
運行內(nèi)容托管等大型Web服務(wù)需要在動態(tài)環(huán)境中實現(xiàn)穩(wěn)定的負(fù)載平衡。我們開發(fā)了一致的哈希方案,對每臺服務(wù)器的最大負(fù)載提供了嚴(yán)格的可證明保證,并將其部署到Google Cloud Pub/Sub中的云客戶。
在提供了我們論文的早期版本后,Vimeo的工程師找到了論文,在haproxy中實現(xiàn)并開源,并將其用于Vimeo的負(fù)載平衡項目。結(jié)局是戲劇性的:應(yīng)用這些算法思想幫助他們將緩存帶寬減少了近8倍,消除了縮放瓶頸。
AutoML,是用機器學(xué)習(xí)來加速機器學(xué)習(xí)的一種方法。
在這個領(lǐng)域,我們已經(jīng)做了很多年的研究,長期目標(biāo)是開發(fā)出那種拿到一個新問題,也能自動解決的學(xué)習(xí)系統(tǒng):
從之前解決的問題里面獲得的啟發(fā)、習(xí)得的能力,就是處理新問題的依據(jù)。
這一領(lǐng)域的早期研究,大多是用強化學(xué)習(xí)做的,不過我們也對進(jìn)化算法感興趣。
去年我們就展示過,怎樣用進(jìn)化算法自動找到各種不同的視覺任務(wù)里,最先進(jìn) (State-of-the-Art) 的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是什么。
我們還探索過,怎樣把強化學(xué)習(xí)用到神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索以外的其他地方。發(fā)現(xiàn)有這些用途:
1) 自動生成圖像變換序列 (Image Transformation Sequence) ,來提高各種圖像模型的準(zhǔn)確性。
2)找到新的符號優(yōu)化表達(dá)方式 (Symbolic Optimization Expressions),比常用的優(yōu)化更新規(guī)則更有效。
我們在AdaNet上的成果,展示了如何造出一個快速靈活的AutoML算法:
另外一個關(guān)注點,是自動發(fā)現(xiàn)計算效率高的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),讓網(wǎng)絡(luò)在手機、自動駕駛汽車這樣的環(huán)境下也能跑起來:不論是計算資源有限,還是時間有限。
在這個問題上,我們證明了:把模型準(zhǔn)確度和推理計算時間結(jié)合到一起,來設(shè)置強化學(xué)習(xí)的獎勵函數(shù),就可以找到高準(zhǔn)確度的那些模型,應(yīng)對不同的環(huán)境限制。
除此之外,我們也探索了用機器學(xué)習(xí)自動壓縮機器學(xué)習(xí)模型,減少參數(shù),就會減少計算資源的占用。
TPU是谷歌內(nèi)部用的機器學(xué)習(xí)硬件加速器,從一開始就是設(shè)計用來支持大規(guī)模訓(xùn)練和大規(guī)模推理的。
谷歌的許多重大突破都是在TPU的加速下實現(xiàn)的,比如剛才討論過的BERT自然語言處理模型。TPU也能讓世界各地的研究人員在谷歌開源研究的基礎(chǔ)之上,尋求自己的研究突破。
還是以BERT為例,任何人都可以在TPU上,用Colab來給BERT做微調(diào)。TensorFlow Research Cloud已經(jīng)為數(shù)千研究人員,提供了大量的云TPU算力。
我們還把多代TPU硬件,用云TPU的形式做了商用:比如名叫Cloud TPU Pods的機器學(xué)習(xí)超級計算機,支持大規(guī)模訓(xùn)練。
而在谷歌內(nèi)部,除了讓機器學(xué)習(xí)研究進(jìn)步更快之外,TPU也驅(qū)動了谷歌核心產(chǎn)品的重大改進(jìn):搜索、YouTube、Gmail、谷歌助手、谷歌翻譯,等等。
希望不論是谷歌還是谷歌以外的機器學(xué)習(xí)團(tuán)隊,都能在TPU提供的、前所未有的計算規(guī)模之下,達(dá)成更多的成就。
發(fā)布開源軟件、創(chuàng)建新的公共數(shù)據(jù)集,是我們?yōu)閷W(xué)界和業(yè)界做出貢獻(xiàn)的兩種主要方式。
在這一方面,我們做過最大的努力之一就是TensorFlow。2015年11月發(fā)布的機器學(xué)習(xí)系統(tǒng),不久前才慶祝了三歲生日。
三年間,TensorFlow已被下載了超過3000萬次,貢獻(xiàn)者超過1700個,添加過45000多次代碼 (Commits) 。
2018年,TensorFlow經(jīng)歷了8次主要版本更新,增加了重要功能:比如Eager Execution,以及分布策略 (Distribution Strategies) 。
我們還在開發(fā)過程中啟用了大眾評審,讓廣大貢獻(xiàn)者都參與進(jìn)來。
隨著TensorFlow Lite、TensorFlow.js和TensorFlow Probability這些相關(guān)產(chǎn)品的推出,TensorFlow生態(tài)系統(tǒng)在2018年茁壯成長。
我們很高興地發(fā)現(xiàn),TensorFlow的GitHub的用戶留存率 (User Retention) ,在主流機器學(xué)習(xí)/深度學(xué)習(xí)框架里面是最高的。
除此之外,TensorFlow團(tuán)隊也在加快處理GitHub上面討論的問題 (Issue) ,給外部貢獻(xiàn)者提供一個更好的體驗。
研究方面,TensorFlow還在繼續(xù)為這個世界大量的機器學(xué)習(xí)和深度學(xué)習(xí)研究提供支持,從Google Scholar論文發(fā)表的數(shù)據(jù)上就能看出。
另外,TensorFlow Lite僅僅上線一年,就有15億臺設(shè)備搭載了這套系統(tǒng)。
還有,TensorFlow.js是JavaScript機器學(xué)習(xí)框架里面的第一名:推出9個月,CDN (內(nèi)容分發(fā)網(wǎng)絡(luò)) 點擊量已經(jīng)超過200萬,下載25萬次,GitHub標(biāo)星10000多。
除了繼續(xù)發(fā)展開源生態(tài)系統(tǒng),2018年還發(fā)布了一個新框架“多巴胺 (Dopamine) ”,用來做靈活、可重復(fù)的強化學(xué)習(xí)。量子位報道在此:
令人激動!谷歌推強化學(xué)習(xí)新框架「多巴胺」,基于TensorFlow,已開源丨附github
發(fā)布了What-If可視化工具,可以快速了解數(shù)據(jù)集的特征(無需編寫任何代碼):
pair-code.github.io/what-if-tool/
發(fā)布了TF-Ranking高級庫,用來表達(dá)涉及排名的機器學(xué)習(xí)問題 (報道如下) :
谷歌開源TF-Ranking可擴(kuò)展庫,支持多種排序?qū)W習(xí)
發(fā)布了AdaNet,一個快速靈活的AutoML框架 (報道如下) :
谷歌開源集成學(xué)習(xí)工具AdaNet:2017年提出的算法終于實現(xiàn)了
還發(fā)布了能在瀏覽器里實時做tSNE可視化的框架,基于TensorFlow.js:
https://github.com/tensorflow/tfjs-tsne
公開數(shù)據(jù)集是很好的靈感來源,可以讓整個學(xué)界看到有趣的數(shù)據(jù)和有趣的問題,在許多不同的任務(wù)上獲得更好的結(jié)果。
這一年,我們很高興地發(fā)布了谷歌數(shù)據(jù)集搜索引擎,可以在全網(wǎng)搜索數(shù)據(jù)集:
Google數(shù)據(jù)集搜索神器上線,和搜索論文一樣簡單 | 還不去訓(xùn)練網(wǎng)絡(luò)?
發(fā)布了Open Images V4,一個包含190萬張圖1540萬個邊界框、600個類別的圖像數(shù)據(jù)集:
https://storage.googleapis.com/openimages/web/index.html
發(fā)布了動作識別AVA數(shù)據(jù)集,提供視聽雙重標(biāo)注:
https://research.google.com/ava/download.html
還發(fā)布了新版本的Youtube-8M數(shù)據(jù)集,包含610萬個調(diào)視頻,3862個類別,26億次視聽特征標(biāo)注:
https://research.google.com/youtube8m/download.html
HDR+連拍數(shù)據(jù)集 (HDR+ Burst Photography Dataset),是計算攝影領(lǐng)域的數(shù)據(jù)集:
https://hdrplusdata.org/
Google-Landmarks,地標(biāo)識別數(shù)據(jù)集:
https://www.kaggle.com/google/google-landmarks-dataset
其中,許多數(shù)據(jù)集都是伴隨著挑戰(zhàn)賽一同發(fā)布的,HDR+連拍數(shù)據(jù)集也是,地標(biāo)數(shù)據(jù)集也是,Youtube-8M也是。還有一場Kaggle比賽,內(nèi)容是識別“Quick, Draw!” (猜畫小歌) 數(shù)據(jù)集里的涂鴉:
https://quickdraw.withgoogle.com/data
2018年,我們朝著理解機器學(xué)習(xí)如何教機器人在世界上行動的目標(biāo),取得了重大進(jìn)展,教機器人抓取新物體的能力也達(dá)到了一個新的里程碑,并通過這種方式幫助機器人在沒有人類監(jiān)督的情況下了解物體。
將機器學(xué)習(xí)、基于抽樣的方法和機器人幾何學(xué)結(jié)合,我們在機器人運動學(xué)習(xí)方面也取得了進(jìn)展。機器人在通過自主觀察來更好地理解世界結(jié)構(gòu)的能力上,取得了巨大的進(jìn)步。
我們首次成功地在真實的機器人上在線訓(xùn)練了深度強化學(xué)習(xí)模型,并且正在尋找新的理論基礎(chǔ)方法來讓機器人控制更穩(wěn)定。
相關(guān)報道:
受嬰兒抓鬮啟發(fā),谷歌讓機器臂自學(xué)抓取物體,不用標(biāo)注數(shù)據(jù)
2018年,我們將機器學(xué)習(xí)應(yīng)用到了物理和生物科學(xué)中的各種問題上。使用機器學(xué)習(xí),我們可以向科學(xué)家提供“成百上千的研究助理”,來幫他們助挖掘數(shù)據(jù),從而使他們變得更有創(chuàng)造力和生產(chǎn)力。
我們發(fā)表在《Nature Methods》上關(guān)于神經(jīng)元高精度自動重建的論文提出了一種新的模型,與以前的深度學(xué)習(xí)技術(shù)相比,這個模型將自動解釋連接組學(xué)數(shù)據(jù)的精度提高了一個層次。
相關(guān)論文:
High-precision automated reconstruction of neurons with flood-filling networks
https://www.nature.com/articles/s41592-018-0049-4
其他一些將機器學(xué)習(xí)應(yīng)用到科學(xué)問題中的例子包括:
通過數(shù)據(jù)挖掘恒星的光變曲線尋找太陽系外的新行星
http://iopscience.iop.org/article/10.3847/1538-3881/aa9e09/meta
識別短DNA序列的起源或功能
https://www.biorxiv.org/content/early/2018/06/22/353474
自動檢測離焦顯微鏡圖像
https://link.springer.com/epdf/10.1186/s12859-018-2087-4
用數(shù)字技術(shù)制作同一細(xì)胞的多重染色圖像
http://www.cell.com/cell/fulltext/S0092-8674(18)30364-7
自動將質(zhì)譜輸出映射到肽鏈上
https://arxiv.org/pdf/1808.06576.pdf
在過去的幾年里,我們一直在將機器學(xué)習(xí)應(yīng)用到醫(yī)療領(lǐng)域。我們相信,機器學(xué)習(xí)可以通過增強醫(yī)療專業(yè)人員的直覺和經(jīng)驗而產(chǎn)生巨大影響。
在這個領(lǐng)域,我們通常與醫(yī)療保健組織合作,解決基礎(chǔ)研究問題(利用臨床專家的反饋使我們的結(jié)果更加可靠) ,然后在備受尊敬的、有同行評審的科學(xué)和臨床期刊上發(fā)表研究結(jié)果。
一旦這項研究得到臨床和科學(xué)驗證,我們將進(jìn)行用戶和人機交互研究,以了解我們?nèi)绾卧谡嬲呐R床環(huán)境中部署這項技術(shù)。
2018年,我們將研究范圍從計算機輔助診斷擴(kuò)展到了臨床任務(wù)預(yù)測中。
在2016年年底,我們發(fā)表的一項回顧性研究顯示,一個經(jīng)過訓(xùn)練的、根視眼底圖像來評估糖尿病病變的模型,能夠與經(jīng)過美國醫(yī)學(xué)委員會認(rèn)證的眼科醫(yī)生相媲美。
2018年,我們得到了一個與視網(wǎng)膜專家水平相當(dāng)?shù)哪P?。我們發(fā)表了一篇評估報告,展示了眼科在醫(yī)生與機器學(xué)習(xí)模型結(jié)合,診斷上比單獨使用任何一種方法都更準(zhǔn)確。
我們與Alphabet的其他兄弟公司合作,在印度的Aravind眼科醫(yī)院和泰國衛(wèi)生部下屬的 Rajavithi 醫(yī)院等10多個地點部署了這套糖尿病視網(wǎng)膜病變檢測系統(tǒng)。
相關(guān)論文:
Improving the Effectiveness of Diabetic Retinopathy Models
http://www.aaojournal.org/article/S0161-6420(18)31575-6/fulltext
我們還推出了其他的機器學(xué)習(xí)模型,可以從視網(wǎng)膜圖像中評估人們患有心血管疾病的風(fēng)險。
相關(guān)論文:
Assessing Cardiovascular Risk Factors with Computer Vision
https://www.nature.com/articles/s41551-018-0195-0.epdf
這一年,我們還在繼續(xù)關(guān)注病理學(xué),展示了如何使用機器學(xué)習(xí)改善前列腺癌的分級狀況,通過深度學(xué)習(xí)來檢測轉(zhuǎn)移性乳腺癌。
并開發(fā)了一種增強現(xiàn)實顯微鏡的原型,將計算機視覺模型中的視覺信息實時疊加到顯微鏡操作員的視野中,來幫助病理學(xué)家和其他科學(xué)家進(jìn)行分析診斷。
前列腺癌論文:
Development and Validation of a Deep Learning Algorithm for Improving Gleason Scoring of Prostate Cancer
https://arxiv.org/abs/1811.06497
乳腺癌論文:
Artificial Intelligence–Based Breast Cancer Nodal Metastasis Detection
https://doi.org/10.5858/arpa.2018-0147-OA
Impact of Deep Learning Assistance on the Histopathologic Review of Lymph Nodes for Metastatic Breast Cancer
https://doi.org/10.1097/PAS.0000000000001151
在過去的四年里,在使用深度學(xué)習(xí)技術(shù),基于電子健康記錄做出臨床相關(guān)的預(yù)測記錄方面,我們進(jìn)行了大量的研究工作。
2018年,我們與芝加哥大學(xué)醫(yī)學(xué)院、加州大學(xué)舊金山分校和斯坦福大學(xué)醫(yī)學(xué)院合作,在《Nature Digital Medicine》雜志上發(fā)表了我們的研究成果,展示了機器學(xué)習(xí)模型在識別電子醫(yī)療記錄中的應(yīng)用,能夠比當(dāng)前的臨床最佳實踐更準(zhǔn)確地預(yù)測各種臨床相關(guān)的任務(wù)。
相關(guān)論文:
Scalable and accurate deep learning with electronic health records
https://www.nature.com/articles/s41746-018-0029-1
在進(jìn)行這些研究時,我們還開發(fā)了一些工具,使得創(chuàng)建這些模型變得非常容易。這些工具也能夠應(yīng)用到完全不同的任務(wù)和數(shù)據(jù)集上。
我們還開發(fā)了與快速醫(yī)療互操作性資源(FHIR)標(biāo)準(zhǔn)相關(guān)的開源軟件,目的是幫助醫(yī)療數(shù)據(jù)處理變得更加容易和標(biāo)準(zhǔn)化。
GitHub鏈接:
https://github.com/google/fhir
我們還提高了基于深度學(xué)習(xí)的變體調(diào)用程序 DeepVariant 的準(zhǔn)確性、速度和實用性。研究團(tuán)隊與合作伙伴一起努力,最近在《Nature Biotechnology》雜志上發(fā)表了經(jīng)過同行評審的論文。
相關(guān)論文:
A universal SNP and small-indel variant caller using deep neural networks
https://www.nature.com/articles/nbt.4235
使用歷史收集的數(shù)據(jù)訓(xùn)練機器學(xué)習(xí)模型時,重要的是了解哪些數(shù)據(jù)有偏差,以它們及是如何被編入數(shù)據(jù)中的。
機器學(xué)習(xí)提供了一個發(fā)現(xiàn)和解決偏見的機會,以及推進(jìn)衛(wèi)生公平的機會,我們正在設(shè)計這樣的系統(tǒng)。
我們以許多不同的方式與外部研究團(tuán)體互動,包括教師參與和學(xué)生支持。
我們感到自豪的是,在2018 學(xué)年期間,我們招收了數(shù)百名本科生、碩士生和博士生作為實習(xí)生,并為北美、歐洲和中東的學(xué)生提供多年期博士研究生獎學(xué)金。
除了財務(wù)支持,每個獎學(xué)金獲得者都被指派一個或多個谷歌研究人員作為導(dǎo)師,我們把所有的研究人員聚集在一起,參加一年一度的谷歌博士獎學(xué)金峰會。
在這里,他們可以接觸到谷歌最先進(jìn)的研究成果,并有機會與谷歌的研究人員以及來自世界各地的其他博士研究員交流。
作為對獎學(xué)金項目的補充,我們還有一個Google AI Residency項目,可以讓那些想要學(xué)習(xí)進(jìn)行深度學(xué)習(xí)研究的人花一年時間在谷歌工作,并接受谷歌研究人員的指導(dǎo)。
2018年是這個項目的第三個年頭,很多研究人員都加入了谷歌遍布全球的各種團(tuán)隊,從事諸如機器學(xué)習(xí)、感知、算法和優(yōu)化、語言理解、醫(yī)療保健等領(lǐng)域的研究。
每年,我們還通過Google Faculty Research Awards項目支持一些教師和學(xué)生的研究項目。
2018年,我們還在谷歌的辦公地點為特定領(lǐng)域的教師和研究生舉辦研討會。如:
在印度班加羅爾辦事處舉辦的AI/ML研究和實踐研討會;
在蘇黎世辦事處舉辦的算法和優(yōu)化研討會;
在桑尼維爾舉辦的ML醫(yī)療應(yīng)用研討會;
在馬在諸塞州劍橋辦事處舉辦的ML公平和偏見研討會。
我們認(rèn)為,公開地為更廣泛的研究群體做出貢獻(xiàn)是支持健康和富有成效的研究生態(tài)系統(tǒng)的關(guān)鍵部分。
除了發(fā)布開源代碼和數(shù)據(jù)集,我在們頂級會議和期刊上公開發(fā)表了大部分研究成果,并積極參與組織和贊助各種不同學(xué)科的會議。
比如ICLR 2018、NAACL 2018、ICML 2018、CVPR 2018、NeurIPS 2018、ECCV 2018和EMNLP 2018。
2018年,谷歌還廣泛參與了ASPLOS、HPCA、ICSE、IEEE Security & Privacy、OSDI、SIGCOMM以及許多其他會議。
2018年,我們非常高興地歡迎許多背景廣泛的新人加入我們的研究組團(tuán)隊我們在非洲開設(shè)了第一個人工智能研究辦公室。
我們擴(kuò)大了在巴黎、東京和阿姆斯特丹的人工智能研究領(lǐng)域,并在普林斯頓開設(shè)了一個研究實驗室。
我們繼續(xù)在世界各地廣納人才,你可以在這里了解更多關(guān)于工作的信息。
相關(guān)鏈接:
https://ai.google/research/join-us/
這篇博客文章,只是總結(jié)了2018年所做研究的一小部分。
當(dāng)我們回顧2018年時,我們很興奮,也很自豪!
2019年,我們期待著能夠?qū)雀枰约案鼜V泛的研究和工程領(lǐng)域產(chǎn)生更大的影響!
實際上,這篇報道最開篇,首先談到的是Google在2018年發(fā)布的AI原則。
在過去幾年中,Google關(guān)注到AI的重大進(jìn)步及其對產(chǎn)品和用戶日常生活的積極影響。
但作為搞AI的人,保證AI向善,始終對社會有益,也是責(zé)任所在、題中之義。
2018年,Google發(fā)布了AI 七原則,并圍繞這些原則展開應(yīng)用實踐。
AI原則為Google AI應(yīng)用和發(fā)展提供了指導(dǎo),讓我們知道在AI實踐中該做什么、不該做什么,哪些值得做、哪些則要避免。
比如在實踐過程中,Google AI原則就讓我們對“AI公平”、“對所有人負(fù)責(zé)”等有更強使命感。
在機器學(xué)習(xí)公平性、模型可解釋性方面,投入精力,展開新研究。
在Google翻譯中,利用AI消除性別偏見。
并發(fā)布更多更具包容性的圖像數(shù)據(jù)集和模型,讓計算機視覺能夠適合全球多元文化。
值得一提的是,這也促進(jìn)我們可以更廣泛地與全球研究組織一起努力,進(jìn)一步推動AI公平和機器學(xué)習(xí)普及。
相關(guān)報道:
接著,AI原則之后,緊接著“匯報”Google AI這一年在社會公益方面的努力。
第一個例子,用AI來進(jìn)行洪水預(yù)測工作。Google內(nèi)部許多團(tuán)隊通力合作, 希望對洪水變化有更精準(zhǔn)及時的信息監(jiān)測,以便洪水多發(fā)地區(qū)的人,可以更有效保護(hù)自己的生命及財產(chǎn)安全。
第二個例子是地震余震的預(yù)測工作。
Google展示的機器學(xué)習(xí)模型,可以比傳統(tǒng)余震預(yù)測方式更精準(zhǔn),而且該機器學(xué)習(xí)模型可解釋,利于地震科學(xué)家圍繞余震數(shù)據(jù)展開更多研究,不僅能進(jìn)一步促進(jìn)余震精準(zhǔn)預(yù)測,還對地質(zhì)等信息有更深了解。
而且“Google AI+外部跨領(lǐng)域科學(xué)家”這樣的合作模式也越來越多,更多工程師、科學(xué)家開始使用TensorFlow來解決科學(xué)和社會問題。比如識別并精準(zhǔn)保護(hù)瀕危鯨魚、探索發(fā)現(xiàn)行星,以及識別蟲患木薯植物等。
為了進(jìn)一步推動AI for Good的創(chuàng)新。
Google還設(shè)立了2500萬美元基金,專門用來支持AI為公益的項目,而且參與者不必一定是AI方面的專家,只要你的點子好、對社會有益,谷歌愿意讓AI專家提供技術(shù)支持,此外還為你提供谷歌云服務(wù)。
一句話:只要你的出發(fā)點有益社會公益,Google就會給錢、給資源,做到AI技術(shù)最大化支援。
或許,通過AI原則和AI公才能益,真潔解釋Google何以為Google。
相關(guān)報道:
https://ai.googleblog.com/2019/01/looking-back-at-googles-research.html
https://ai.google/research/pubs/?year=2018
— 完 —
加入社群
聯(lián)系客服