2024-11-21|閱讀時間 ‧ 約 0 分鐘

Activation Function ReLU

    ReLU 整流線性單位函式 (Rectified Linear Unit)

    1.沒有分數跟指數,讓電腦加速運算

    2.有效減緩梯度消失問題

    3.但是會造成神經元死亡,神經元輸入小於等於 0時,這些神經元的梯度始終為 0,無法更新權重


    分享至
    成為作者繼續創作的動力吧!
    從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

    作者的相關文章

    你可能也想看

    發表回應

    成為會員 後即可發表留言
    © 2024 vocus All rights reserved.