神經(jīng)網(wǎng)絡(luò)是強(qiáng)大的深度學(xué)習(xí)模型,能夠在幾秒鐘內(nèi)合成大量數(shù)據(jù)。有許多不同類型的神經(jīng)網(wǎng)絡(luò),它們幫助我們完成各種日常任務(wù),從推薦電影或音樂到幫助我們在線購物。
與飛機(jī)受到鳥類啟發(fā)的方式類似,神經(jīng)網(wǎng)絡(luò)(NNs)也受到生物神經(jīng)網(wǎng)絡(luò)的啟發(fā)。雖然原理相同,但過程和結(jié)構(gòu)可能大不相同。下面我來介紹一下每個數(shù)據(jù)科學(xué)家必須了解的 6 種神經(jīng)網(wǎng)絡(luò)類型。
現(xiàn)在,我們了解神經(jīng)網(wǎng)絡(luò)是如何工作的,讓我們看看深度學(xué)習(xí)中使用的神經(jīng)網(wǎng)絡(luò)的各種類型和功能:
感知器是最簡單的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。此模型也稱為單層神經(jīng)網(wǎng)絡(luò),僅包含兩個層:
這里沒有隱藏的圖層。感知器采用輸入并計算每個輸入節(jié)點的加權(quán)輸入。此加權(quán)輸入通過激活函數(shù)生成輸出。
由于體系結(jié)構(gòu)簡單,它不能用于復(fù)雜的任務(wù)。多層感知器(MLP)通常表示完全連接的網(wǎng)絡(luò)。換句話說,一個層中的每個神經(jīng)元都連接到相鄰層中的所有神經(jīng)元。因此,MLP 具有比感知器更高的處理能力。但是,這些網(wǎng)絡(luò)的'完全連接性'使得它們?nèi)菀壮霈F(xiàn)數(shù)據(jù)過度擬合。減少過度擬合的典型方法包括提前停止、添加輟學(xué)層和添加正則化術(shù)語。
人類使用眼睛中的神經(jīng)元來識別物體,這些神經(jīng)元可以檢測邊緣、形狀、深度和運(yùn)動。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是計算機(jī)視覺中最重要的神經(jīng)網(wǎng)絡(luò)類型之一,其靈感來自眼睛的視覺皮層,用于物體檢測等視覺任務(wù)。CNN 的卷積層是它與其他神經(jīng)網(wǎng)絡(luò)區(qū)別開來的地方。此層執(zhí)行點產(chǎn)品,即組件乘法,然后是加法。
在 CNN 的初始階段,篩選器是隨機(jī)的,不會提供任何有用的結(jié)果。使用損耗函數(shù),調(diào)整篩選器,通過多次迭代,網(wǎng)絡(luò)在實現(xiàn)其任務(wù)(例如檢測對象邊緣)方面更上一個。盡管 CNN 通常需要大量的訓(xùn)練數(shù)據(jù),但它們廣泛適用于各種圖像甚至語言任務(wù)。
CNN的靈感來自視覺皮層,因此它們廣泛用于涉及計算機(jī)視覺應(yīng)用的應(yīng)用。這些應(yīng)用包括面部識別、人臉檢測、物體識別、手寫信件識別和醫(yī)療診斷中腫瘤的檢測。當(dāng)我們閱讀特定的章節(jié)時,我們并不試圖孤立地理解它,而是與前幾章有關(guān)。同樣,就像自然神經(jīng)網(wǎng)絡(luò)一樣,機(jī)器學(xué)習(xí)模型需要利用已經(jīng)學(xué)習(xí)的文本來理解文本。
在傳統(tǒng)的機(jī)器學(xué)習(xí)模型中,這是不可能的,因為我們不能存儲模型的前幾個階段。但是,循環(huán)神經(jīng)網(wǎng)絡(luò)(通常稱為 RNN )是一種神經(jīng)網(wǎng)絡(luò)類型,可以為我們做到這一點,這使得它們對于需要使用過去數(shù)據(jù)的應(yīng)用程序非常有用。讓我們仔細(xì)看看下面的 RNN。
循環(huán)神經(jīng)網(wǎng)絡(luò)是旨在解釋時態(tài)或順序信息的網(wǎng)絡(luò)。RNN 使用序列中的其他數(shù)據(jù)點進(jìn)行更好的預(yù)測。他們通過輸入和重用序列中以前節(jié)點或以后節(jié)點的激活來影響輸出來達(dá)到此目的。
RNN 通常用于連接序列應(yīng)用,如時間序列預(yù)測、信號處理和手寫字符識別。此外,RNN廣泛應(yīng)用于音樂生成、圖像字幕和預(yù)測股市波動
在 RNN 中,我們只能保留最近階段的信息。但對于像語言翻譯這樣的問題,我們需要更多的保留。這就是 LSTM 網(wǎng)絡(luò)擅長的地方。
為了學(xué)習(xí)長期依賴性,我們的神經(jīng)網(wǎng)絡(luò)需要記憶能力。LSTM 是 RNN 的一個特例,可以做到這一點。它們具有與 RNN 相同的鏈?zhǔn)浇Y(jié)構(gòu),但具有不同的重復(fù)模塊結(jié)構(gòu)。這種重復(fù)模塊結(jié)構(gòu)允許網(wǎng)絡(luò)保留大量上一階段值。
我已經(jīng)提到LSTM網(wǎng)絡(luò)對于語言翻譯系統(tǒng)的強(qiáng)大功能,但它們有廣泛的應(yīng)用。其中一些應(yīng)用程序包括序列到序列建模任務(wù),如異常檢測、語音識別、文本總結(jié)和視頻分類。給定訓(xùn)練數(shù)據(jù),生成對抗網(wǎng)絡(luò)(或簡單地說,GAN)會學(xué)習(xí)使用與訓(xùn)練數(shù)據(jù)相同的統(tǒng)計信息生成新數(shù)據(jù)。例如,如果我們在照片上訓(xùn)練一個 GAN 模型,那么訓(xùn)練有素的模型將能夠生成類似于輸入照片的新照片。
GAN 包含兩個部分:一個生成器和一個鑒別器。生成器模型創(chuàng)建新數(shù)據(jù),而鑒別器嘗試從生成的數(shù)據(jù)中確定真實數(shù)據(jù)。隨著生成器和鑒別器在各自的工作上做得更好,生成的數(shù)據(jù)因此得到改善,直到(理想情況下)質(zhì)量與訓(xùn)練數(shù)據(jù)幾乎相同。
GAN 通常用于為游戲和動畫電影創(chuàng)建卡通圖像或面孔。此外,GAN 可以幫助從少量數(shù)據(jù)生成合成數(shù)據(jù),以幫助改進(jìn)機(jī)器學(xué)習(xí)模型。也可以加一下老胡的微信 圍觀朋友圈~~~
聯(lián)系客服