九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
騰訊AI Lab多篇論文入選CVPR、ACL及ICML等頂級會議

感謝您閱讀騰訊AI Lab首篇文章,我們將在文章第一部分介紹即將開幕的CVPR、ACL和ICML等頂級AI學(xué)術(shù)會議,及它們收錄的騰訊AI Lab多篇論文,并選取其中一篇重點解讀。第二部分是公眾號內(nèi)容簡介及文章預(yù)告,我們將在之后發(fā)布的三篇文章里對前述三大頂會的熱門研究方向和優(yōu)秀文章做深度解析。

1、CVPR

IEEE Conference on Computer Vision and Pattern RecognitionIEEE國際計算機視覺與模式識別會議7月21日 - 26日 | 美國夏威夷

CVPR是近十年來計算機視覺領(lǐng)域全球最有影響力、內(nèi)容最全面的頂級學(xué)術(shù)會議,由全球最大的非營利性專業(yè)技術(shù)學(xué)會IEEE(電氣和電子工程師協(xié)會)主辦。2017谷歌學(xué)術(shù)指標(Google Scholar)按論文引用率排名, CVPR位列計算機視覺領(lǐng)域榜首。今年CVPR審核了2620篇文章,最終收錄783篇,錄取率29%,口頭報告錄取率僅2.65%。

騰訊AI Lab計算機視覺總監(jiān)劉威博士介紹到,「CVPR的口頭報告一般是當年最前沿的研究課題,在學(xué)界和工業(yè)界都影響很大,每年都集齊如斯坦福大學(xué)和谷歌等全球最知名高校和科技公司。」

騰訊AI Lab六篇論文入選CVPR

論文一:Real Time Neural Style Transfer for Videos本文用深度前向卷積神經(jīng)網(wǎng)絡(luò)探索視頻藝術(shù)風格的快速遷移,提出了一種全新兩幀協(xié)同訓(xùn)練機制,能保持視頻時域一致性并消除閃爍跳動瑕疵,確保視頻風格遷移實時、高質(zhì)、高效完成。

  • 此論文后附詳細解析

論文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images論文首次提出一種全尺寸、無標注、基于病理圖片的病人生存有效預(yù)測方法WSISA,在肺癌和腦癌兩類癌癥的三個不同數(shù)據(jù)庫上性能均超出基于小塊圖像方法,有力支持大數(shù)據(jù)時代的精準個性化醫(yī)療。

論文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning針對圖像描述生成任務(wù),SCA-CNN基于卷積網(wǎng)絡(luò)的多層特征來動態(tài)生成文本描述,進而建模文本生成過程中空間及通道上的注意力模型。

論文四:Deep Self-Taught Learning for Weakly Supervised Object Localization本文提出依靠檢測器自身不斷改進訓(xùn)練樣本質(zhì)量,不斷增強檢測器性能的一種全新方法,破解弱監(jiān)督目標檢測問題中訓(xùn)練樣本質(zhì)量低的瓶頸。

論文五:Diverse Image Annotation本文提出了一種新的自動圖像標注目標,即用少量多樣性標簽表達盡量多的圖像信息,該目標充分利用標簽之間的語義關(guān)系,使得自動標注結(jié)果與人類標注更加接近。

論文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images基于曼哈頓結(jié)構(gòu)與對稱信息,文中提出了單張圖像三維重建及多張圖像Structure from Motion三維重建的新方法。

CVPR重點論文解析

CVPR選中的六篇文章,我們將重點解析《視頻的實時神經(jīng)風格遷移》(Real-Time Neural Style Transfer for Videos)[1]這篇頗具創(chuàng)新的文章。

在過去很長一段時間內(nèi),業(yè)界流行的圖像濾鏡通常只是對全局顏色屬性的調(diào)整,比如亮度、色相、飽和度等。在2016年的CVPR,Gatys等人[2]首創(chuàng)性地提出將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像的藝術(shù)風格遷移,使得輸入圖像能夠模仿如梵高的星空、莫奈的日出印象等任何類型的藝術(shù)風格,效果驚艷。

Gatys等人工作雖然取得了非常好的效果,但是缺點是基于優(yōu)化,非常耗時;到2016 ECCV時,Johnson等人[3]提出了使用深度前向神經(jīng)網(wǎng)絡(luò)替代優(yōu)化過程,實現(xiàn)了實時的圖像風格遷移,修圖工具Prisma隨之風靡一時。但直接將圖像風格遷移的方法應(yīng)用到視頻上,卻會使得原本連貫的視頻內(nèi)容在不同幀中轉(zhuǎn)化為不一致的風格,造成視頻的閃爍跳動,嚴重影響觀感體驗。為了解決閃爍問題,Ruder等人[4]加入了對時域一致性的考慮,提出了一種基于優(yōu)化的視頻藝術(shù)濾鏡方法,但速度極慢遠遠達不到實時。

騰訊AI Lab科學(xué)家使用深度前向卷積神經(jīng)網(wǎng)絡(luò),探索視頻藝術(shù)風格快速遷移的可能,提出了一種全新的兩幀協(xié)同訓(xùn)練機制,保持了視頻時域一致性,消除了閃爍跳動瑕疵,同時保證視頻風格遷移能夠?qū)崟r完成,兼顧了視頻風格轉(zhuǎn)換的高質(zhì)量與高效率。

視頻藝術(shù)濾鏡模型如下圖所示。通過損失網(wǎng)絡(luò)(Loss Network)計算連續(xù)兩個輸入視頻幀之間的損失來訓(xùn)練風格變換網(wǎng)絡(luò)(Stylizing Network)。其中空間損失(Spatial Loss)同時描述了圖像的內(nèi)容損失以及風格損失;時間損失(Temporal Loss)描述了兩個風格變換后的視頻幀之間的時間一致性。

文章相關(guān)論文[1] Haozhi Huang, Hao Wang, Wenhan Luo, Lin Ma, Wenhao Jiang, Xiaolong Zhu, Zhifeng Li, and Wei Liu. Real-Time Neural Style Transfer for Videos. CVPR, 2017.[2] L. A. Gatys, A. S. Ecker, and M. Bethge. Image style transfer using convolutional neural networks. CVPR, 2016.[3] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for real-time style transfer and super-resolution. ECCV, 2016.[4] M. Ruder, A. Dosovitskiy, and T. Brox. Artistic style transfer for videos. German Conference on Pattern Recognition, 2016.

2、ACL

Meetings of the Association for Computational Linguistics國際計算機語言協(xié)會年會7月30日 - 8月4日|加拿大溫哥華

騰訊AI Lab副主任語音識別和深度學(xué)習專家俞棟博士

ACL是計算語言學(xué)里最重要的國際會議,今年是第55屆。會議涵蓋生物醫(yī)學(xué)、認知建模與心理語言學(xué)、交互式對話系統(tǒng)、機器翻譯等各個領(lǐng)域,今年有194 篇長論文、107 篇短論文、21 個軟件演示及 21 篇主題演講。在2017谷歌學(xué)術(shù)指標(Google Scholar)按論文引用率排名, ACL是計算機語言學(xué)和自然語言處理領(lǐng)域最高級別國際學(xué)術(shù)年會。

騰訊AI Lab副主任俞棟認為,「自然語言的理解、表達、生成和轉(zhuǎn)換一直是自然語言處理的核心問題。近年來有很多新的解決思路和方法。今年的ACL涉及自然語言處理的各方面,尤其在語義解析、語義角色標注、基于語義和語法的自然語言生成、機器翻譯和問答系統(tǒng)方向上都有一些有趣的工作?!?/p>

騰訊AI Lab主任張潼介紹到,「ACL早期利用語法和規(guī)則分析自然語言,90年代后,隨著以LDC(Linguistic Data Consortium)為代表的自然語言數(shù)據(jù)集建立擴充,統(tǒng)計自然語言方法在計算語言學(xué)里作用越來越大并成為主流。2000年后隨著互聯(lián)網(wǎng)高速發(fā)展及以自然語言為核心的人機交互方式興起,自然語言研究被賦予極高應(yīng)用價值?!?/p>

騰訊AI Lab三篇文章入選ACL

論文一:Modeling Source Syntax for Neural Machine Translation本文提出將句法樹轉(zhuǎn)化為句法標簽序列的輕量級方法,有效將源端句法信息引入神經(jīng)網(wǎng)絡(luò)翻譯系統(tǒng),被證實能顯著提高翻譯效果。

論文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation本文引入一個額外組塊神經(jīng)網(wǎng)絡(luò)層,從組塊到詞的層次生成譯文,幫助實現(xiàn)神經(jīng)網(wǎng)絡(luò)翻譯系統(tǒng)短語級別的建模,實驗表明該方法在多種語言上都能顯著提高翻譯效果。

  • 本文作者亦致謝前任職機構(gòu)

論文三:Deep Pyramid Convolutional Neural Networks for Text Categorization文章提出了一種能有效表達文本長距離關(guān)系的復(fù)雜度詞粒度CNN。本文研究了如何加深詞粒度CNN對文本進行全局表達,并找到了一種簡單網(wǎng)絡(luò)結(jié)構(gòu),通過增加網(wǎng)絡(luò)深度提升準確度,但不過多增加計算量。實驗表明15層的DPCNN在六個情感和主題分類任務(wù)上達到了目前最佳結(jié)果。

3、ICML

International Conference on Machine Learning國際機器學(xué)習大會8月6日 - 11日|澳大利亞悉尼

騰訊AI Lab主任機器學(xué)習和大數(shù)據(jù)專家張潼博士

機器學(xué)習是人工智能的核心技術(shù),而ICML是機器學(xué)習最重要的兩個會議之一(另一個是NIPS)。ICML源于1980年在卡內(nèi)基梅隆大學(xué)舉辦的機器學(xué)習研討會,現(xiàn)由國際機器學(xué)習學(xué)會(IMLS)主辦。2017谷歌學(xué)術(shù)指標以「機器學(xué)習」關(guān)鍵詞排名,ICML位列第一。

騰訊AI Lab主任張潼博士介紹到,「很多經(jīng)典論文和算法,如CRF,都是在ICML上首次提出的,這個會議涉及機器學(xué)習相關(guān)的所有研究,包括近年非常熱門的深度學(xué)習、優(yōu)化算法、統(tǒng)計模型和圖模型等。在早期,ICML更注重實驗和應(yīng)用,而NIPS更注重模型和算法,但近年來兩個會議有些趨同?!?/p>

騰訊AI Lab四篇文章入選ICML

論文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction本文提出了第一個能在模型訓(xùn)練開始前,同時檢測和去除稀疏支持向量機中不活躍樣本和特征的篩選算法,并從理論和實驗中證明其能不損失任何精度地把模型訓(xùn)練效率提升數(shù)個量級。

論文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization本文提出了求解多塊非光滑復(fù)合凸優(yōu)化問題的算子分裂新算法,該算法采用Gauss-Seidel迭代以及算子分裂的技巧處理不可分的非光滑正則項,并以實驗證實了該算法的有效性。

論文三:Efficient Distributed Learning with Sparsity本文提出了一個高維大數(shù)據(jù)中能更有效學(xué)習稀疏線性模型的分布式算法。在單個機器訓(xùn)練樣本足夠多時,該算法只需一輪通信就能學(xué)習出統(tǒng)計最優(yōu)誤差模型;即使單個機器樣本不足,學(xué)習統(tǒng)計最優(yōu)誤差模型的通信代價只隨機器數(shù)量對數(shù)曲線上升,而不依賴于其他條件數(shù)。

論文四:Projection-free Distributed Online Learning in Networks本文提出了去中心化的分布式在線條件梯度算法。該算法將條件梯度的免投影特性推廣到分布式在線場景,解決了傳統(tǒng)算法需要復(fù)雜的投影操作問題,能高效處理去中心化的流式數(shù)據(jù)。

此外,我們還受邀參加以下三個會議:8月7日-11日東京舉辦的SIGIR(國際計算機協(xié)會信息檢索大會),入選論文3篇。8月19日-25日墨爾本舉辦的IJCAI(國際人工智能聯(lián)合會議),入選論文6篇。及9月7日-11日哥本哈根舉辦的EMNLP(自然語言處理實證方法會議),入選論文7篇。歡迎現(xiàn)場交流。

關(guān)于騰訊AI Lab微信

騰訊AI Lab于2016年四月成立,專注于機器學(xué)習、計算機視覺、語音識別和自然語言理解四個領(lǐng)域「基礎(chǔ)研究」,及內(nèi)容、游戲、社交和平臺工具型四大AI「應(yīng)用探索」,提升AI的決策、理解及創(chuàng)造力,向「Make AI Everywhere」的愿景邁進。

騰訊AI Lab主任及第一負責人是機器學(xué)習和大數(shù)據(jù)專家張潼博士(詳情可點鏈接),副主任及西雅圖實驗室負責人是語音識別及深度學(xué)習專家俞棟博士。目前團隊有50余位AI科學(xué)家及200多位應(yīng)用工程師。

一年多以來,我們主要通過行業(yè)會議及學(xué)術(shù)刊物分享研究成果。今天,我們正式入駐微信,聚焦中國AI前沿「思考」、實驗室「動態(tài)」與學(xué)術(shù)產(chǎn)業(yè)「研究」三塊內(nèi)容,用專業(yè)嚴謹且平實易懂的語言,希望在更廣范圍內(nèi),連接不同層次的從業(yè)者,以開放、深入和持續(xù)的交流,共同構(gòu)想AI未來。

機器與機器間的連接,能讓已知信息隨時隨地共享。而人與人的連接,則讓未知碰撞,產(chǎn)生更璀璨的智慧火光。讓我們借此火光前行,共創(chuàng)「讓AI無處不在」的未來。

下期內(nèi)容預(yù)告

接下來發(fā)布的三篇文章中,我們將邀請參會的騰訊AI Lab科學(xué)家,從CVPR、ACL及ICML現(xiàn)場發(fā)回第一手獨家見聞,深度解析會議熱門研究方向與優(yōu)質(zhì)文章。敬請關(guān)注!

文章來源:騰訊AI實驗室

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能頂會真相!深度學(xué)習熱度高,論文錄取率創(chuàng)新低 | 智東西內(nèi)參
2018谷歌學(xué)術(shù)影響因子發(fā)布:NIPS首次躍進Top 100,CVPR排名泛AI領(lǐng)域第一
100 篇 CNN 必讀的經(jīng)典論文,包含檢測/識別/分類/分割多個領(lǐng)域
【騰訊計算機視覺團隊首次曝光】AI Lab深度解讀CVPR五大前沿
業(yè)界 | 騰訊AI Lab計算機視覺團隊負責人劉威博士詳解CVPR 2017入選論文
谷歌2019 學(xué)術(shù)指標發(fā)榜:CVPR首次進入Top 10,何愷明論文引用最高!
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服