日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費收錄網(wǎng)站服務,提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

摘要

深度學習在科學計算領(lǐng)域得到了廣泛的應用,其算法被解決復雜問題的行業(yè)廣泛使用。所有的深度學習算法都使用不同類型的神經(jīng)網(wǎng)絡來執(zhí)行特定的任務。本文為大家?guī)砘镜娜斯ど窠?jīng)網(wǎng)絡和深度學習算法,并簡單講解它們?nèi)绾文M人腦工作。

什么是深度學習

深度學習是使用人工神經(jīng)網(wǎng)絡對大量數(shù)據(jù)進行復雜的計算。

它是一種基于人腦結(jié)構(gòu)和功能的機器學習。

深度學習算法是通過從實例中學習來訓練機器。

醫(yī)療保健、電子商務、娛樂和廣告等行業(yè)通常使用深度學習。

定義神經(jīng)網(wǎng)絡

Neural.NETworks,簡稱NN。針對機器學習算法需要領(lǐng)域?qū)<疫M行特征工程,模型泛化性能差的問題,提出了NN可以從數(shù)據(jù)的原始特征學習特征表示,無需進行復雜的特征處理。

神經(jīng)網(wǎng)絡的結(jié)構(gòu)類似于人腦,由人工神經(jīng)元組成,也稱為節(jié)點。這些節(jié)點分為三層并排堆放:

  1. 輸入層
  2. 隱藏層
  3. 輸出層

 

數(shù)據(jù)以輸入的形式為每個節(jié)點提供信息。該節(jié)點將輸入與隨機權(quán)重相乘,計算它們,并添加一個偏差。最后,非線性函數(shù),也稱為激活函數(shù),被用來確定哪個神經(jīng)元激活。

其原理可以使用線性回歸理解:y = W x + b y=Wx+by=Wx+b

深度學習算法如何工作?

雖然深度學習算法的特點是自學習表示,但它們依賴于反映大腦計算信息方式的神經(jīng)網(wǎng)絡。在訓練過程中,算法使用輸入分布中的未知元素來提取特征、分組對象并發(fā)現(xiàn)有用的數(shù)據(jù)模式。就像自學習的訓練機器一樣,這在多個層次上發(fā)生,使用算法來建立模型。

深度學習模型使用了多種算法。雖然沒有一個網(wǎng)絡被認為是完美的,但是一些算法適合執(zhí)行特定的任務。為了選擇正確的算法,最好對所有的主要算法有一個扎實的了解。

十大最受歡迎的深度學習的算法

Convolutional Neural Networks (卷積神經(jīng)網(wǎng)絡CNNs)

Long Short Term Memory Networks (長短期記憶網(wǎng)絡LSTMs)

Recurrent Neural Networks (遞歸神經(jīng)網(wǎng)絡RNNs)

Generative Adversarial Networks (生成對抗網(wǎng)絡GANs)

Radial Basis Function Networks (徑向基函數(shù)網(wǎng)絡RBFNs)

Multilayer Perceptrons (多層感知機MLPs)

Self Organizing Maps (自組織映射神經(jīng)網(wǎng)絡SOMs)

Deep Belief Networks (深度信念網(wǎng)絡DBNs)

Restricted Boltzmann machines( 受限玻爾茲曼機RBMs)

Autoencoders(自動編碼器)

深度學習算法可以處理幾乎任何類型的數(shù)據(jù),并且需要大量的計算能力和信息來解決復雜的問題。現(xiàn)在,讓我們深入研究一下排名前十的深度學習算法。

一、卷積神經(jīng)網(wǎng)絡CNN

卷積神經(jīng)網(wǎng)絡Convolutional Neural Networks, 簡稱CNN。

CNN也被稱為康維網(wǎng),由多層組成,主要用于圖像處理和目標檢測。楊 · 樂村在1988年發(fā)明了第一臺 CNN,當時它被稱為樂網(wǎng)。它被用來識別像郵政編碼和數(shù)字這樣的字符。

CNN 廣泛應用于識別衛(wèi)星圖像、處理醫(yī)學圖像、預測時間序列和檢測異常。

CNN 是如何工作的?

CNN 有多個層次,從數(shù)據(jù)中處理和提取特征:

卷積層

有線電視新聞網(wǎng)有一個卷積層,有幾個過濾器執(zhí)行卷積操作。

整流線性單元

CNN 有一個 ReLU 層來執(zhí)行對元素的操作。輸出是一個校正的特征映射。

共用層

經(jīng)過修正的特性映射接下來被提供到一個池層。池是一種減少特征映射維度的下采樣操作。

然后,匯聚層通過平坦化將匯聚的特征映射得到的二維數(shù)組轉(zhuǎn)換為單個、長的、連續(xù)的線性向量。

完全連接層

當來自池層的平坦矩陣作為輸入時,形成一個完全連通的層,它對圖像進行分類和識別。

下面是一個通過 CNN 處理的圖像的例子。

 

二、長短期存儲器網(wǎng)絡(LSTMs)

LSTM 是一種遞歸神經(jīng)網(wǎng)絡(RNN) ,可以學習和記憶長期的依賴關(guān)系。長時間回憶過去的信息是默認行為。

LSTM 隨著時間的推移保留信息。它們在時間序列預測中很有用,因為它們記得以前的輸入。LSTM 具有鏈狀結(jié)構(gòu),其中四個相互作用的層以獨特的方式進行通信。除了時間序列預測,LSTM 通常用于語音識別、音樂創(chuàng)作和藥物開發(fā)。

LSTM 是如何工作的?

  1. 首先,他們忘記了先前狀態(tài)中不相關(guān)的部分
  2. 接下來,它們有選擇地更新單元格狀態(tài)值
  3. 最后,輸出單元格狀態(tài)的某些部分

下面是 LSTM 如何運作的示意圖:

 

三、遞歸神經(jīng)網(wǎng)絡(RNNs)

RNN 具有形成定向循環(huán)的連接,這允許將 LSTM 的輸出作為輸入饋入到當前階段。

LSTM 的輸出成為當前階段的輸入,并且由于其內(nèi)部存儲器,可以記憶以前的輸入。RNN 通常用于圖像字幕、時間序列分析、自然語言處理、手寫識別和機器翻譯。

展開的 RNN 看起來像這樣:

 

RNN 是如何工作的?

  1. 時間 t-1的輸出在時間 t 輸入。
  2. 類似地,時間 t 的輸出在時間 t + 1輸入。
  3. RNN 可以處理任意長度的輸入。
  4. 計算考慮了歷史信息,模型大小不會隨著輸入大小的增加而增加。

下面是谷歌自動完成功能的一個例子:

 

四、生成性對抗網(wǎng)絡(GAN)

GAN 是生成式深度學習算法,它創(chuàng)建類似于訓練數(shù)據(jù)的新數(shù)據(jù)實例。GAN 有兩個組成部分: 一個生成器,學習生成虛假數(shù)據(jù),一個鑒別器,學習從虛假信息。

GAN 的使用在一段時間內(nèi)有所增加。它們可以用來改善天文圖像和模擬暗物質(zhì)研究的引力透鏡效應。視頻游戲開發(fā)者通過圖像訓練,以4K 或更高的分辨率重新創(chuàng)建低分辨率、2D 紋理的舊視頻游戲,使用 GAN 來提升它們的分辨率。

GAN 有助于生成逼真的圖像和卡通人物,創(chuàng)建人臉照片,并渲染3D 物體。

GAN 是如何工作的?

  1. 鑒別器學習區(qū)分生成器的虛假數(shù)據(jù)和真實樣本數(shù)據(jù)。
  2. 在最初的訓練過程中,生成器產(chǎn)生假數(shù)據(jù),鑒別器很快學會辨別這些假數(shù)據(jù)。
  3. GAN 將結(jié)果發(fā)送給生成器和鑒別器以更新模型。

下面是 GAN 如何運作的示意圖:

 

五、徑向基函數(shù)網(wǎng)絡(RBFNs)

RBFN 是一種特殊類型的前饋神經(jīng)網(wǎng)絡,它使用徑向基函數(shù)作為激活函數(shù)。它們有一個輸入層、一個隱藏層和一個輸出層,主要用于分類、回歸和時間序列預測。

RBFN 是如何工作的?

  1. RBFN 通過測量輸入與訓練集中的例子的相似性來進行分類。
  2. RBF 神經(jīng)元有一個輸入向量供給輸入層,它們有一層 RBF 神經(jīng)元。
  3. 函數(shù)找到輸入的加權(quán)和,輸出層為每個類別或類別的數(shù)據(jù)有一個節(jié)點。
  4. 隱層中的神經(jīng)元包含高斯傳遞函數(shù),其輸出與到神經(jīng)元中心的距離成反比。
  5. 網(wǎng)絡的輸出是輸入的徑向基函數(shù)和神經(jīng)元參數(shù)的線性組合。

看看這個 RBFN 的例子:

 

六、多層感知器(mlp)

MLP 是開始學習深度學習技術(shù)的絕佳場所。

MLP 屬于具有多層感知器的前饋神經(jīng)網(wǎng)絡,具有激活功能。MLP 由完全連接的輸入層和輸出層組成。它們具有相同數(shù)量的輸入和輸出層,但可能有多個隱藏層,可用于構(gòu)建語音識別、圖像識別和機器翻譯軟件。

MLP 是如何工作的?

  1. MLP 將數(shù)據(jù)提供給網(wǎng)絡的輸入層。神經(jīng)元層連接成一個圖形,以便信號沿一個方向傳遞。
  2. MLP 使用存在于輸入層和隱藏層之間的權(quán)重來計算輸入。
  3. MLP 使用激活函數(shù)來決定激活哪些節(jié)點。激活函數(shù)包括 ReLU、 sigmoid 函數(shù)和 tanh。
  4. MLP 訓練模型以理解相關(guān)性,并從訓練數(shù)據(jù)集中學習獨立變量和目標變量之間的依賴關(guān)系。

下面是 MLP 的一個例子。該圖計算權(quán)重和偏差,并應用適當?shù)募せ詈瘮?shù)來分類貓和狗的圖像。

 

七、自組織映射神經(jīng)網(wǎng)絡(SOMs)

特沃•科霍寧教授發(fā)明了自組織映射神經(jīng)網(wǎng)絡,使數(shù)據(jù)可視化能夠通過自組織的人工神經(jīng)網(wǎng)絡來減少數(shù)據(jù)的維數(shù)。

數(shù)據(jù)可視化試圖解決人類無法輕易將高維數(shù)據(jù)可視化的問題。SOM 的創(chuàng)建是為了幫助用戶理解這些高維信息。

SOM 是如何工作的?

  1. SOM 為每個節(jié)點初始化權(quán)值,并從訓練數(shù)據(jù)中隨機選擇一個向量。
  2. SOM 檢查每個節(jié)點,以找出哪些權(quán)重是最可能的輸入向量。獲勝的節(jié)點稱為最佳匹配單元(BMU)。
  3. SOM 發(fā)現(xiàn)了 BMU 的鄰居,隨著時間的推移,鄰居的數(shù)量減少了。
  4. SOMs 為樣本向量授予一個獲勝的權(quán)重。節(jié)點越接近 BMU,其權(quán)重變化越大。.
  5. 鄰居離 BMU 越遠,它學到的東西就越少。 SOMs 在 N 次迭代中重復第二步。

下面,請看一個不同顏色的輸入向量的示意圖。這些數(shù)據(jù)提供給 SOM,然后 SOM 將數(shù)據(jù)轉(zhuǎn)換為2D RGB 值。最后,它分離和分類不同的顏色。

 

八、深度信念網(wǎng)絡(DBN)

DBN 是由多層隨機潛變量組成的生成模型。潛變量具有二進制值,通常稱為隱藏單位。

DBN 是一組 Boltzmann 機器,它們在各層之間建立連接,每個 RBM 層與前面的層和后面的層進行通信。深度信任網(wǎng)絡(DBN)用于圖像識別、視頻識別和運動捕捉數(shù)據(jù)。

DBN 是如何工作的?

  1. 貪婪學習算法訓練 DBN。貪婪學習算法使用一層一層的方法來學習自頂向下的生成權(quán)重。
  2. DBN 在最上面的兩個隱藏層上運行 Gibbs 采樣的步驟。這個階段從頂部兩個隱藏層定義的 RBM 中提取一個樣本。
  3. DBN 使用一次通過模型其余部分的祖先抽樣來從可見單元中抽取樣本。
  4. DBN 每一層中潛變量的值都可以通過一次自底向上的傳遞來推斷。

下面是 DBN 體系結(jié)構(gòu)的一個示例:

 

九、受限制的玻爾茲曼機器(RBM)

由 Geoffrey Hinton 開發(fā)的 RBM 是一種隨機神經(jīng)網(wǎng)絡,可以從一組輸入的概率分布中學習。

這種深度學習算法用于降維、分類、回歸、協(xié)同過濾、特征學習和主題建模。RBM構(gòu)成了 DBN 的組成部分。

RBM由兩層組成:

  1. 可見單位
  2. 隱藏單位

每個可見單元都連接到所有隱藏單元。RBM 有一個連接到所有可見單元和隱藏單元的偏置單元,它們沒有輸出節(jié)點。

RBM 是如何工作的?

RBM有兩個階段: 前向傳遞和后向傳遞。

  1. RBM接受輸入,并將其轉(zhuǎn)換成一組數(shù)字,在前向傳遞中對輸入進行編碼。
  2. RBM 算法將每個輸入與單個權(quán)值和一個總偏差相結(jié)合,將輸出傳遞給隱層。
  3. 在向后傳遞過程中,RBM 獲取這組數(shù)字并將它們轉(zhuǎn)換為重構(gòu)的輸入。
  4. RBM 將每個激活與個體重量和整體偏差相結(jié)合,并將輸出傳遞到可見層進行重建。
  5. 在可見層,RBM 將重建結(jié)果與原始輸入進行比較,分析結(jié)果的質(zhì)量。

以下是RBM如何運作圖表:

 

十、自動編碼器

自動編碼器是一種特殊類型的前饋神經(jīng)網(wǎng)絡,其輸入和輸出是相同的。杰弗里•辛頓(Geoffrey Hinton)在上世紀80年代設計了自動編碼器,以解決非監(jiān)督式學習問題。它們是經(jīng)過訓練的神經(jīng)網(wǎng)絡,將數(shù)據(jù)從輸入層復制到輸出層。自動編碼器用于藥物發(fā)現(xiàn)、流行預測和圖像處理等目的。

自動編碼器是如何工作的?

自動編碼器由三個主要部分組成: 編碼器、代碼和解碼器。

  1. 自動編碼器的結(jié)構(gòu)是接收輸入并將其轉(zhuǎn)換為不同的表示形式。然后,他們試圖盡可能準確地重建原始輸入。
  2. 當一個數(shù)字的圖像不清楚可見,它饋送到自動編碼器神經(jīng)網(wǎng)絡。
  3. 自動編碼器首先對圖像進行編碼,然后將輸入的大小減小為較小的表示形式。
  4. 最后,自動編碼器對圖像進行解碼,生成重建圖像。

下圖演示了自動編碼器的工作方式:

 

結(jié)論

深度學習在過去的五年中得到了發(fā)展,深度學習算法在許多行業(yè)中廣泛流行。以下是常見的問答交流環(huán)節(jié)。

Q1:深度學習中哪種算法最好?

多層感知器(MLPs)是最好的深度學習算法。這是一個最古老的深度學習技術(shù)使用的幾個社會媒體網(wǎng)站,包括 Instagram 和 Meta。這有助于在弱網(wǎng)絡中加載圖像,輔助數(shù)據(jù)壓縮,并經(jīng)常用于速度和圖像識別應用程序。

Q2:哪一個是深度學習算法的例子?

一些許多深度學習算法包括徑向函數(shù)網(wǎng)絡,多層感知器,自組織映射,卷積神經(jīng)網(wǎng)絡等等。這些算法包括受人類大腦神經(jīng)元功能啟發(fā)的結(jié)構(gòu)。

Q3:CNN 是一種深度學習算法嗎?

是的,CNN 是一個深度學習算法,負責處理動物視覺皮層啟發(fā)的圖像在網(wǎng)格模式的形式。它們被設計用于自動檢測和分割特定對象,并從低層到高層模式學習特征的空間層次結(jié)構(gòu)。

Q4:深度學習的三個層次是什么?

該神經(jīng)網(wǎng)絡由輸入層、隱層和輸出層三層組成。當輸入數(shù)據(jù)應用于輸入層時,獲得輸出層中的輸出數(shù)據(jù)。隱藏層負責執(zhí)行所有的計算和“隱藏”任務。

Q5:深度學習模式是如何工作的?

深度學習模型使用神經(jīng)網(wǎng)絡結(jié)構(gòu)或一組包含多層的標記數(shù)據(jù)進行訓練。它們有時超過人類水平的表現(xiàn)。這些體系結(jié)構(gòu)直接從數(shù)據(jù)中學習特征,而不受手工特征提取的阻礙。

Q6:深度學習算法從哪個入門?

無論你是初學者還是專業(yè)人士,這三個最好的深度學習算法將幫助你解決與深度學習有關(guān)的復雜問題: CNN 或卷積神經(jīng)網(wǎng)絡,LSTM 或長短期記憶網(wǎng)絡和 RNN 或回歸神經(jīng)網(wǎng)絡(RNN)。

分享到:
標簽:算法
用戶無頭像

網(wǎng)友整理

注冊時間:

網(wǎng)站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨大挑戰(zhàn)2018-06-03

數(shù)獨一種數(shù)學游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數(shù)有氧達人2018-06-03

記錄運動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定