九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
深度學(xué)習(xí)(Deep Learning)簡(jiǎn)單介紹

機(jī)器學(xué)習(xí)(ML)是人工智能(AI)的子集。這是一組實(shí)現(xiàn)人工智能的方法。ML旨在使計(jì)算機(jī)系統(tǒng)能夠“學(xué)習(xí)”,使用提供的數(shù)據(jù)并作出準(zhǔn)確的預(yù)測(cè)。可以猜到,深度學(xué)習(xí)(DL)是ML的一個(gè)子集。它只是實(shí)施ML的方式之一。換句話說(shuō),DL是機(jī)器學(xué)習(xí)的下一個(gè)發(fā)展。

DL算法可以被視為識(shí)別模式和分類各種類型信息的方法,就像我們使用我們的大腦一樣。大腦通常通過(guò)標(biāo)記處理其收到的信息并將項(xiàng)目分配到各種類別。DL算法的概念類似于我們的大腦吸收新信息的過(guò)程:在理解它之前嘗試將其與已知事物進(jìn)行比較,找到相似之處。最強(qiáng)大的算法,模仿我們的大腦做出決策的方式,是人工神經(jīng)網(wǎng)絡(luò)(ANNs),并且DL基于它們并不奇怪。

ANN是一個(gè)用于模擬復(fù)雜系統(tǒng)行為的信息處理概念。人工神經(jīng)網(wǎng)絡(luò)的主要思想是利用人類大腦的方式來(lái)解決任何特定問(wèn)題。ANN由多個(gè)節(jié)點(diǎn)構(gòu)成,這些節(jié)點(diǎn)模擬人腦的生物神經(jīng)元。節(jié)點(diǎn)被組織成層并連接起來(lái)進(jìn)行通信,通常是在鄰近層之間。數(shù)據(jù)通過(guò)層從輸入層傳遞到輸出層。層中的節(jié)點(diǎn)數(shù)可以不同。

DL是一個(gè)ANN,但是它有一系列層,每一層都創(chuàng)建了轉(zhuǎn)換輸入數(shù)據(jù)的更抽象的表示。這個(gè)層次結(jié)構(gòu)識(shí)別輸入特性,并根據(jù)數(shù)據(jù)創(chuàng)建一組新特性。輸出層結(jié)合了所有這些特性并進(jìn)行預(yù)測(cè)。一個(gè)簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)只有一個(gè)隱藏層,不能學(xué)習(xí)像DL這樣的復(fù)雜特征,因?yàn)樗卸鄠€(gè)隱藏層。它擁有的層越多,學(xué)習(xí)到的特性級(jí)別就越高。數(shù)據(jù)和函數(shù)呈指數(shù)關(guān)系。例如,擁有十個(gè)特性需要提供至少100個(gè)數(shù)據(jù)值。DL非常昂貴,需要大量的數(shù)據(jù)集來(lái)訓(xùn)練和大量的計(jì)算資源。它在20世紀(jì)80年代首次理論化,直到最近才變得有用的主要原因有兩個(gè):

DL需要大量標(biāo)記數(shù)據(jù),并且最近才發(fā)明了適當(dāng)?shù)臄?shù)據(jù)存儲(chǔ),而數(shù)據(jù)標(biāo)記過(guò)程使結(jié)果變得單調(diào)乏味。

DL需要大量的計(jì)算能力。高性能GPU具有廣泛用于DL的并行體系架構(gòu)。與集群或云計(jì)算相結(jié)合,它提供了減少訓(xùn)練時(shí)間的機(jī)會(huì)。

DL不僅是更多的隱含層,還有一些深度學(xué)習(xí)技術(shù),如卷積神經(jīng)網(wǎng)絡(luò)(CNN),循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),生成對(duì)抗網(wǎng)絡(luò)(GAN)。DL專門研究像大腦這樣的模型。識(shí)別一個(gè)網(wǎng)絡(luò)比其他網(wǎng)絡(luò)更好是錯(cuò)誤的;它們更適合于特定任務(wù)。CNN通過(guò)從圖像中提取特征而很好地工作。它們?cè)谙到y(tǒng)訓(xùn)練一組圖像時(shí)實(shí)現(xiàn),使CNN對(duì)計(jì)算機(jī)視覺(jué)任務(wù)非常精確。CNNs不需要手動(dòng)提取特征,而是直接從圖像中提取特征。

雖然CNNs通常用于圖像處理,但是另一類DL模型RNNs通常用于語(yǔ)言處理。它們具有內(nèi)置的反饋循環(huán),對(duì)內(nèi)存進(jìn)行建模,其中層的輸出可以反饋到自身中,就像循環(huán)一樣,這會(huì)產(chǎn)生記憶效應(yīng)。RNNs可以通過(guò)處理真實(shí)的數(shù)據(jù)序列來(lái)預(yù)測(cè)接下來(lái)會(huì)發(fā)生什么來(lái)訓(xùn)練序列生成。

在GANs中,兩個(gè)神經(jīng)網(wǎng)絡(luò)分別扮演著不同的角色:生成器和判別器。第一個(gè)試圖創(chuàng)建有說(shuō)服力的“假”數(shù)據(jù),而另一個(gè)試圖找到假數(shù)據(jù)和真實(shí)數(shù)據(jù)之間的差異。每個(gè)訓(xùn)練周期使得生成器更好地創(chuàng)建假數(shù)據(jù),并且判別器在識(shí)別假數(shù)據(jù)時(shí)更敏銳。兩者都在對(duì)抗中得到改善,雙方都在人與人之間的真實(shí)辯論中獲利。GANs可用于非常有趣的應(yīng)用程序,包括從書(shū)面文本生成圖像。

DL模型已應(yīng)用于許多領(lǐng)域和概念,如社交網(wǎng)絡(luò)過(guò)濾,圖像識(shí)別,金融欺詐檢測(cè),語(yǔ)音識(shí)別,計(jì)算機(jī)視覺(jué),醫(yī)學(xué)圖像處理,自然語(yǔ)言處理,視覺(jué)藝術(shù)處理,藥物發(fā)現(xiàn)和設(shè)計(jì),毒理學(xué),生物信息學(xué),客戶關(guān)系管理,音頻識(shí)別等。事實(shí)證明了在ML技術(shù)中處于領(lǐng)先地位;DL的深度不在于層數(shù),而在于我們大腦不同專業(yè)結(jié)構(gòu)的建模。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
Deep Learning Papers Reading Roadmap
Paper:LSTM之父眼中的深度學(xué)習(xí)十年簡(jiǎn)史《The 2010s: Our Decade of Deep Learning / Outlook on the 2020s》的解讀
NVIDIA前資深架構(gòu)師解讀:如今人工智能處于什么階段?
CPFS在深度學(xué)習(xí)領(lǐng)域的實(shí)踐
人工智能模型是這樣構(gòu)建的!探秘DL4J分布式訓(xùn)練法!
深度學(xué)習(xí) | 簡(jiǎn)析深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法的基本思路
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服