“拍照優(yōu)化、語音助手以外,手機AI還有什么?”
今年全新一代驍龍8移動平臺發(fā)布時,高通再次翻譯翻譯了,什么叫腦洞大開——
讓手機學會“聽診”,通過語音識別出用戶可能存在的疾病,比如抑郁癥、哮喘;
讓手機實現(xiàn)“防偷窺”,通過識別陌生用戶的視線,實現(xiàn)自動鎖屏;
讓手機游戲搞定超分辨率,將以往PC端才有能力運行的畫質(zhì),搬到手機上體驗……
更重要的是,這些AI功能,驍龍8有能力同時運行!
高通聲稱,驍龍8搭載的第7代AI引擎,性能相比上一代最高提升了4倍。
這意味著我們玩手機的時候,同時“多開”幾個AI應(yīng)用也沒問題。更重要的是,它不僅僅是簡單的AI性能提升,更能給用戶帶來流暢的應(yīng)用體驗感。
在硬件制程升級如此艱難的今天,高通是如何在第7代AI引擎的性能和應(yīng)用上“翻”出這么多新花樣的?
我們翻了翻高通發(fā)表的一些研究論文和技術(shù)文檔,從中找到了一些“蛛絲馬跡”:
在高通發(fā)布的AIMET開源工具文檔里,就有提到關(guān)于“如何壓縮AI超分辨率模型”的信息;
在與“防偷窺”相關(guān)的一篇技術(shù)博客中,介紹了如何在隱私保護的前提下使用目標檢測技術(shù)……
而這些文檔、技術(shù)博客背后的頂會論文,全都來自一家機構(gòu)——高通AI研究院。
可以說,高通把不少研究院發(fā)表的AI論文,“藏”在了第7代AI引擎里。
先來看看第7代AI引擎在拍照算法上的提升。
針對智能識別這個點,高通今年將面部特征識別點增加到了300個,能夠捕捉到更為細微的表情變化。
但同時,高通又將人臉檢測的速度提升了300%。這是怎么做到的?
在一篇高通發(fā)表在CVPR上的研究中,我們發(fā)現(xiàn)了答案。
在這篇文章中,高通提出了名為Skip-Convolutions(跳躍卷積)的新型卷積層,它能將前后兩幀圖像相減,并只對變化部分進行卷積。
沒錯,就像人的眼睛一樣,更容易注意到“動起來的部分”。
這使得驍龍8在做目標檢測、圖像識別等實時檢測視頻流的算法時,能更專注于目標物體本身,同時將多余的算力用于提升精度。
可能你會問,這樣細節(jié)的人臉識別對于拍照有什么用?
更進一步來說,這次高通與徠卡一起推出了Leica Leitz濾鏡,用的是基于AI的智能引擎,其中就包括了人臉檢測等算法,使得用戶能更不經(jīng)思考智能地拍出更具藝術(shù)風格的照片。
不止人臉檢測,高通在智能拍攝上所具備的功能,還包括超分辨率、多幀降噪、局部運動補償……
然而,在高分辨率拍攝中的視頻流通常是實時的,AI引擎究竟如何智能處理這么大體量的數(shù)據(jù)?
同樣是一篇CVPR論文,高通提出了一個由多個級聯(lián)分類器組成的神經(jīng)網(wǎng)絡(luò),可以隨著視頻幀的復(fù)雜度,來改變模型所用的神經(jīng)元數(shù)量,自行控制計算量。
面對智能視頻處理這種“量大復(fù)雜”的流程,AI現(xiàn)在也能hold住了。
智能拍照以外,高通的語音技術(shù)這次也是一個亮點。
像開頭提到的,第7代AI引擎支持用手機加速分析用戶聲音模式,以確定哮喘、抑郁癥等健康狀況的風險。
那么,它究竟是如何準確分辨出用戶聲音,而且又不涉及收錄數(shù)據(jù)的?
具體來說,高通提出了一種手機端的聯(lián)邦學習方法,既能使用手機用戶語音訓(xùn)練模型,同時保證語音數(shù)據(jù)隱私不被泄露。
像這樣的AI功能,有不少還能在高通AI研究院發(fā)表的論文中找到。
同樣也能尋到蛛絲馬跡的,是開頭提及的AI提升手機性能的理論支撐。這就不得不提到一個問題:
同時運行這么多AI模型,高通究竟是怎么提升硬件的處理性能的?
這里就不得不提到高通近幾年的一個重點研究方向量化了。
從高通最新公布的技術(shù)路線圖來看,模型量化一直是AI研究院這幾年鉆研的核心技術(shù)之一,目的就是給AI模型做個“瘦身”。
由于電量、算力、內(nèi)存和散熱能力受限,手機使用的AI模型和PC上的AI模型有很大不同。
在PC上,GPU動輒上百瓦功率,AI模型的計算可以使用16或32位浮點數(shù)(FP16、FP32)。而手機SoC只有幾瓦功率,也難存儲大體積AI模型。
這時候就需要將FP32模型縮小成8位整數(shù)(INT8)乃至4位整數(shù)(INT4),同時確保模型精度不能有太大損失。
以AI摳圖模型為例,我們以電腦處理器的算力,通常能實現(xiàn)十分精準的AI摳圖,但相比之下,如果要用手機實現(xiàn)“差不多效果”的AI摳圖,就得用到模型量化的方法。
為了讓更多AI模型搭載到手機上,高通做了不少量化研究,發(fā)表在頂會上的論文就包括免數(shù)據(jù)量化DFQ、四舍五入機制AdaRound,以及聯(lián)合量化和修剪技術(shù)貝葉斯位(Bayesian Bits)等。
其中,DFQ是一種無數(shù)據(jù)量化技術(shù),可以減少訓(xùn)練AI任務(wù)的時間,提高量化精度性能,在手機上最常見的視覺AI模型MobileNet上,DFQ達到了超越其他所有方法的最佳性能:
AdaRound則可以將復(fù)雜的Resnet18和Resnet50網(wǎng)絡(luò)的權(quán)重量化為4位,大大減少了模型的存儲空間,同時只損失不到1%的準確度:
貝葉斯位作為一種新的量化操作,不僅可以將位寬度翻倍,還能在每個新位寬度上量化全精度值和之前四舍五入值之間的殘余誤差,做到在準確性和效率之間提供更好的權(quán)衡。
這些技術(shù)不僅讓更多AI模型能以更低的功耗在手機上運行,像原本只能在電腦上運行的游戲AI超分辨率(類似DLSS),現(xiàn)在實現(xiàn)能在驍龍8上運行的效果;
甚至其中一些AI模型,還能“同時運行”,例如其中的姿態(tài)檢測和人臉識別:
事實上,論文還只是其中的第一步。
要想快速將AI能力落地到更多應(yīng)用上,同樣還需要對應(yīng)的更多平臺和開源工具。
對此,高通保持一個開放的心態(tài)。
這些論文中高效搭建AI應(yīng)用的方法和模型,高通AI研究院通過合作、開源等方法,將它們分享給了更多開發(fā)者社區(qū)和合作伙伴,我們也因此能在驍龍8上體驗到更多有意思的功能和應(yīng)用。
一方面,高通與谷歌合作,將快速開發(fā)更多AI應(yīng)用的能力分享給了開發(fā)者。
高通在驍龍8上搭載了谷歌的Vertex AI NAS服務(wù),還是每月更新的那種,意味著開發(fā)者在第7代AI引擎上開發(fā)的AI應(yīng)用,其模型性能也能快速更新。
采用NAS,開發(fā)者就能自動用AI生成合適的模型,包括高通發(fā)表在頂會上的智能拍照算法、語音翻譯、超分辨率……都能包含在AI的“篩選范圍”中,自動為開發(fā)者匹配最好的模型。
這里用上了高通的運動補償和插幀等算法。而類似于這些的AI技術(shù),開發(fā)者們也都能通過NAS實現(xiàn),還能讓它更好地適配驍龍8,不會出現(xiàn)“調(diào)教不力”的問題。
想象一下,你將來用搭載驍龍8的手機打游戲時,會感覺畫面更流暢了,但是并不會因此掉更多的電(指增加功耗):
同時,關(guān)于AI模型的維護也變得更簡單。據(jù)谷歌表示,與其他平臺相比,Vertex AI NAS訓(xùn)練模型所需的代碼行數(shù)能減少近80%。
另一方面,高通也已經(jīng)將自己這些年研究量化積累的工具進行了開源。
去年,高通就開源了一個名為AIMET(AI Model Efficiency Toolkit)的模型“提效”工具。
其中包含如神經(jīng)網(wǎng)絡(luò)剪枝、奇異值分解(SVD)等大量壓縮和量化算法,有不少都是高通AI研究院發(fā)表的頂會論文成果。開發(fā)者用上AIMET工具后,就能直接用這些算法來提效自己的AI模型,讓它更流暢地在手機上運行。
高通的量化能力也不止開源給普通開發(fā)者,同樣能讓頭部AI企業(yè)的更多AI應(yīng)用在驍龍8上實現(xiàn)。
在新驍龍8上,他們與NLP領(lǐng)域知名公司Hugging Face進行合作,讓手機上的智能助手可以幫用戶分析通知并推薦哪些可優(yōu)先處理,讓用戶對最重要的通知一目了然。
在高通AI引擎上運行它們的情緒分析模型時,能做到比普通CPU速度快30倍。
正是技術(shù)研究的沉淀和技術(shù)上保持的開放態(tài)度,才有了高通不斷刷新手機業(yè)界的各種AI“新腦洞”:
從之前的視頻智能“消除”、智能會議靜音,到今年的防窺屏、手機超分辨率……
還有更多的論文、平臺和開源工具實現(xiàn)的AI應(yīng)用,也都被搭載在這次的AI引擎中。
而一直隱藏在這些研究背后的高通AI研究院,也隨著第7代AI引擎的亮相而再次浮出水面。
大多數(shù)時候,我們對于高通AI的印象,似乎還停留在AI引擎的“硬件性能”上。
畢竟從2007年啟動首個AI項目以來,高通一直在硬件性能上針對AI模型提升處理能力。
然而,高通在AI算法上的研究,同樣也“早有籌謀”。
2018年,高通成立AI研究院,負責人是在AI領(lǐng)域久負盛名的理論學者Max Welling,而他正是深度學習之父Hinton的學生。
據(jù)不完全統(tǒng)計,高通自成立AI研究院以來,已有數(shù)十篇論文發(fā)表在NeurIPS、ICLR、CVPR等AI頂級學術(shù)會議上。
其中,至少有4篇模型壓縮論文已在手機AI端落地實現(xiàn),還有許多計算機視覺、語音識別、隱私計算相關(guān)論文。
上述的第7代AI引擎,可以說只是高通近幾年在AI算法研究成果上的一個縮影。
通過高通AI的研究成果,高通還成功將AI模型拓展到了諸多最前沿技術(shù)應(yīng)用的場景上。
在自動駕駛上,高通推出了驍龍汽車數(shù)字平臺,“包攬”了從芯片到AI算法的一條龍解決方案,目前已同25家以上的車企達成合作,使用他們方案的網(wǎng)聯(lián)汽車數(shù)量已經(jīng)達到2億輛。
其中,寶馬的下一代輔助駕駛系統(tǒng)和自動駕駛系統(tǒng),就將采用高通的自動駕駛方案。
在XR上,高通發(fā)布Snapdragon Spaces XR了開發(fā)平臺,用于開發(fā)頭戴式AR眼鏡等設(shè)備和應(yīng)用。
通過和Wanna Kicks合作,驍龍8還將第7代AI引擎的能力帶到了AR試穿APP上。
在無人機上,高通今年發(fā)布了Flight RB5 5G平臺,其中有不少如360°避障、無人機攝影防抖等功能,都能通過平臺搭載的AI模型實現(xiàn)。其中首架抵達火星的無人機“機智號”,搭載的就是高通提供的處理器和相關(guān)技術(shù)。
回過頭看,不難發(fā)現(xiàn)這次高通在AI性能上不再強調(diào)硬件算力(TOPS)的提升,而是將軟硬件作為一體,得出AI性能4倍提升的數(shù)據(jù),并進一步強化AI應(yīng)用體驗的全方位落地。
這不僅表明高通更加注重用戶實際體驗的感受,也表明了高通對自身軟件實力的信心,因為硬件已經(jīng)不完全是高通AI能力的體現(xiàn)。
可以說驍龍8第7代AI引擎的升級,標志著高通AI軟硬一體的開端。
最近,高通針對編解碼器又提出了幾篇最新的研究,分別登上了ICCV 2021和ICLR 2021。
這些論文中,高通同樣用AI算法,展現(xiàn)了針對編解碼器優(yōu)化的新思路。
在一篇采用GAN原理的研究中,高通最新的編解碼器算法讓圖像畫面不僅更清晰、每幀也更小了,只需要14.5KB就能搞定:
相比之下,原本的編解碼算法每幀壓縮到16.4KB后,樹林就會變得無比模糊:
而在另一篇用插幀的思路結(jié)合神經(jīng)編解碼器的論文中,高通選擇將基于神經(jīng)網(wǎng)絡(luò)的P幀壓縮和插幀補償結(jié)合起來,利用AI預(yù)測插幀后需要進行的運動補償。
經(jīng)過測試,這種算法比谷歌之前在CVPR 2020上保持的SOTA紀錄更好,也要好于當前基于H.265標準實現(xiàn)開源編解碼器的壓縮性能。
將AI模型應(yīng)用于更多領(lǐng)域中,高通已經(jīng)不是第一次嘗試,像視頻編解碼器的應(yīng)用,就又是一個新的方向。
如果這些模型能成功被落地到平臺甚至應(yīng)用上,我們在設(shè)備上看視頻的時候,也能真正做到不卡。
隨著“軟硬一體”的方案被繼續(xù)進行下去,未來我們說不定真能看見這些最新的AI成果被應(yīng)用到智能手機上。
結(jié)合高通在PC、汽車、XR等領(lǐng)域的“秀肌肉”……
可以預(yù)見的是,你熟悉的高通、你熟悉的驍龍,肯定不會止于手機,其AI能力,也將不止于手機。
部分論文地址:
[1]https://arxiv.org/abs/2104.11487
[2]https://arxiv.org/abs/2104.13400
[3]https://arxiv.org/abs/2104.08776
[4]https://arxiv.org/abs/1906.04721
[5]https://arxiv.org/pdf/2004.10568.pdf
[6]https://arxiv.org/abs/1906.04721
[7]https://arxiv.org/pdf/2104.00531.pdf
參考鏈接:
https://www.qualcomm.com/news
— 完 —
本文系網(wǎng)易新聞·網(wǎng)易號特色內(nèi)容激勵計劃簽約賬號【量子位】原創(chuàng)內(nèi)容,未經(jīng)賬號授權(quán),禁止隨意轉(zhuǎn)載。
點這里??關(guān)注我,記得標星哦~
聯(lián)系客服