Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。
1.加速模型訓練,支持更高學習率。
2.減少過擬合,有輕微正則化效果。3.減輕參數初始化的依賴,增強模型穩健性。
4.適用於全連接層與卷積層等多種結構。

Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。
1.加速模型訓練,支持更高學習率。
2.減少過擬合,有輕微正則化效果。3.減輕參數初始化的依賴,增強模型穩健性。
4.適用於全連接層與卷積層等多種結構。