欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

大數(shù)據(jù)中梯度消失與梯度膨脹以及6種解決措施分別是什么

大數(shù)據(jù)中梯度消失與梯度膨脹以及6種解決措施分別是什么,相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

讓客戶滿意是我們工作的目標,不斷超越客戶的期望值來自于我們對這個行業(yè)的熱愛。我們立志把好的技術通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領域值得信任、有價值的長期合作伙伴,公司提供的服務項目有:國際域名空間、虛擬空間、營銷軟件、網(wǎng)站建設、臨潁網(wǎng)站維護、網(wǎng)站推廣。

1.梯度消失

根據(jù)鏈式法則,如果每一層神經(jīng)元對上一層的輸出的偏導乘上權重結(jié)果都小于1的話,那么即使這個結(jié)果是0.99,在經(jīng)過足夠多層傳播之后,誤差對輸入層的偏導會趨于0。

這種情況會導致靠近輸入層的隱含層神經(jīng)元調(diào)整極小。

 
2.梯度膨脹

根據(jù)鏈式法則,如果每一層神經(jīng)元對上一層的輸出的偏導乘上權重結(jié)果都大于1的話,在經(jīng)過足夠多層傳播之后,誤差對輸入層的偏導會趨于無窮大。

這種情況又會導致靠近輸入層的隱含層神經(jīng)元調(diào)整變動極大。

 
3. 梯度消失和梯度膨脹的解決方案

本文提供6種常見的解決梯度消失和膨脹的方法,歡迎閱讀學習。

 
3.1 預訓練加微調(diào)

此方法來自Hinton在2006年發(fā)表的一篇論文,Hinton為了解決梯度的問題,提出采取無監(jiān)督逐層訓練方法,其基本思想是每次訓練一層隱節(jié)點,訓練時將上一層隱節(jié)點的輸出作為輸入,而本層隱節(jié)點的輸出作為下一層隱節(jié)點的輸入,此過程就是逐層“預訓練”(pre-training);在預訓練完成后,再對整個網(wǎng)絡進行“微調(diào)”(fine-tunning)。

Hinton在訓練深度信念網(wǎng)絡(Deep Belief Networks)中,使用了這個方法,在各層預訓練完成后,再利用BP算法對整個網(wǎng)絡進行訓練。此思想相當于是先尋找局部最優(yōu),然后整合起來尋找全局最優(yōu),此方法有一定的好處,但是目前應用的不是很多了。

 
3.2 梯度剪切、正則

梯度剪切這個方案主要是針對梯度爆炸提出的,其思想是設置一個梯度剪切閾值,然后更新梯度的時候,如果梯度超過這個閾值,那么就將其強制限制在這個范圍之內(nèi),通過這種直接的方法就可以防止梯度爆炸。

注:在WGAN中也有梯度剪切限制操作,但是和這個是不一樣的,WGAN限制梯度更新信息是為了保證lipchitz條件。

關于WGAN(Wasserstein GAN) 的介紹

We introduce a new algorithm named WGAN, an alternative to traditional GAN training. In this new model, we show that we can improve the stability of learning, get rid of problems like mode collapse, and provide meaningful learning curves useful for debugging and hyperparameter searches. Furthermore, we show that the corresponding optimization problem is sound, and provide extensive theoretical work highlighting the deep connections to other distances between distributions.

另外一種解決梯度爆炸的手段是采用權重正則化(weithts regularization)比較常見的是l1正則,和l2正則,在各個深度框架中都有相應的API可以使用正則化,比如在tensorflow中,搭建網(wǎng)絡的時候已經(jīng)設置了正則化參數(shù),則調(diào)用以下代碼可以直接計算出正則損失:

regularization_loss = tf.add_n(tf.losses.get_regularization_losses(scope='my_resnet_50'))
 

如果沒有設置初始化參數(shù),也可以使用以下代碼計算l2 正則損失:

l2_loss = tf.add_n([tf.nn.l2_loss(var) for var in tf.trainable_variables() if 'weights' in var.name])
 

正則化是通過對網(wǎng)絡權重做正則限制過擬合,仔細看正則項在損失函數(shù)的形式:

大數(shù)據(jù)中梯度消失與梯度膨脹以及6種解決措施分別是什么

其中,α 是指正則項系數(shù),因此,如果發(fā)生梯度爆炸,權值的范數(shù)就會變的非常大,通過正則化項,可以部分限制梯度爆炸的發(fā)生。

注:事實上,在深度神經(jīng)網(wǎng)絡中,往往是梯度消失出現(xiàn)的更多一些。

 
3.3 relu、leakrelu、elu等激活函數(shù)

Relu:思想也很簡單,如果激活函數(shù)的導數(shù)為1,那么就不存在梯度消失爆炸的問題了,每層的網(wǎng)絡都可以得到相同的更新速度,relu就這樣應運而生。

Relu的主要貢獻在于:

  1. 解決了梯度消失、爆炸的問題

  2. 計算方便,計算速度快

  3. 加速了網(wǎng)絡的訓練

同時也存在一些缺點:

  1. 由于負數(shù)部分恒為0,會導致一些神經(jīng)元無法激活(可通過設置小學習率部分解決)

  2. 輸出不是以0為中心的

leakrelu就是為了解決relu的0區(qū)間帶來的影響,其數(shù)學表達為:leakrelu=max(k?x,x) 


其中k是leak系數(shù),一般選擇0.01或者0.02,或者通過學習而來。leakrelu解決了0區(qū)間帶來的影響,而且包含了relu的所有優(yōu)點

3.4 batchnorm

Batchnorm是深度學習發(fā)展以來提出的最重要的成果之一了,目前已經(jīng)被廣泛的應用到了各大網(wǎng)絡中,具有加速網(wǎng)絡收斂速度,提升訓練穩(wěn)定性的效果,Batchnorm本質(zhì)上是解決反向傳播過程中的梯度問題。

batchnorm全名是batch normalization,簡稱BN,

通過規(guī)范化操作將輸出x規(guī)范化以此來保證網(wǎng)絡的穩(wěn)定性。

batchnorm就是通過對每一層的輸出規(guī)范為均值和方差一致的方法,消除了w帶來的放大縮小的影響,進而解決梯度消失和爆炸的問題。

詳情可參考文章:

http://blog.csdn.net/qq_25737169/article/details/79048516

3.5 殘差結(jié)構

事實上,就是殘差網(wǎng)絡的出現(xiàn)導致了image net比賽的終結(jié),自從殘差提出后,幾乎所有的深度網(wǎng)絡都離不開殘差的身影,相比較之前的幾層,幾十層的深度網(wǎng)絡,在殘差網(wǎng)絡面前都不值一提,殘差可以很輕松的構建幾百層,一千多層的網(wǎng)絡而不用擔心梯度消失過快的問題,原因就在于殘差的捷徑(shortcut)部分。

殘差結(jié)構說起殘差的話,不得不提這篇論文了:

Deep Residual Learning for Image Recognition

3.6 LSTM

LSTM全稱是長短期記憶網(wǎng)絡(long-short term memory networks),是不那么容易發(fā)生梯度消失的,主要原因在于LSTM內(nèi)部復雜的“門”(gates),LSTM通過它內(nèi)部的“門”可以接下來更新的時候“記住”前幾次訓練的”殘留記憶“,因此,經(jīng)常用于生成文本中。

看完上述內(nèi)容,你們掌握大數(shù)據(jù)中梯度消失與梯度膨脹以及6種解決措施分別是什么的方法了嗎?如果還想學到更多技能或想了解更多相關內(nèi)容,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝各位的閱讀!

本文名稱:大數(shù)據(jù)中梯度消失與梯度膨脹以及6種解決措施分別是什么
文章來源:http://chinadenli.net/article48/ppscep.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、網(wǎng)站設計公司外貿(mào)網(wǎng)站建設響應式網(wǎng)站、做網(wǎng)站網(wǎng)站維護

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站優(yōu)化排名
久热在线视频这里只有精品| 久久这里只有精品中文字幕| 欧美人禽色视频免费看 | 国产福利一区二区三区四区| 久热青青草视频在线观看| 日韩中文字幕狠狠人妻| 中文字幕亚洲精品人妻| 一区二区三区日本高清| 黄色片一区二区三区高清| 国产日产欧美精品大秀| 两性色午夜天堂免费视频| 老司机精品线观看86| 亚洲天堂精品一区二区| 亚洲视频一区自拍偷拍另类| 国产一区二区三区不卡| 日韩av亚洲一区二区三区| 日韩成人高清免费在线| 好骚国产99在线中文| 国产成人在线一区二区三区 | 国产精品免费视频专区| 日韩一区二区三区观看| 亚洲国产成人av毛片国产| 国产精品99一区二区三区| 日韩欧美精品一区二区三区| 久草视频在线视频在线观看| 中国美女偷拍福利视频| 久久永久免费一区二区| 亚洲内射人妻一区二区| 日韩美成人免费在线视频| 99久久精品午夜一区| 国产欧美日韩精品成人专区| 九九热在线视频精品免费| 不卡免费成人日韩精品| 粉嫩国产美女国产av| 国产精品免费视频专区| 高清不卡一卡二卡区在线| 中文字幕亚洲视频一区二区| 欧美整片精品日韩综合| 色婷婷日本视频在线观看| 欧美日韩国产一级91| 日本av在线不卡一区|