Activation Function ReLU

更新於 發佈於 閱讀時間約 1 分鐘

ReLU 整流線性單位函式 (Rectified Linear Unit)

1.沒有分數跟指數,讓電腦加速運算

2.有效減緩梯度消失問題

3.但是會造成神經元死亡,神經元輸入小於等於 0時,這些神經元的梯度始終為 0,無法更新權重

raw-image


avatar-img
0會員
34內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
你可能也想看
Google News 追蹤
提問的內容越是清晰,強者、聰明人越能在短時間內做判斷、給出精準的建議,他們會對你產生「好印象」,認定你是「積極」的人,有機會、好人脈會不自覺地想引薦給你
提問的內容越是清晰,強者、聰明人越能在短時間內做判斷、給出精準的建議,他們會對你產生「好印象」,認定你是「積極」的人,有機會、好人脈會不自覺地想引薦給你