Batch Normalization

更新於 發佈於 閱讀時間約 1 分鐘

Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。

1.加速模型訓練,支持更高學習率。

2.減少過擬合,有輕微正則化效果。

3.減輕參數初始化的依賴,增強模型穩健性。

4.適用於全連接層與卷積層等多種結構。

raw-image



avatar-img
0會員
34內容數
留言
avatar-img
留言分享你的想法!

































































你可能也想看
從 Google News 追蹤更多 vocus 的最新精選內容