Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。1.加速模型訓練,支持更高學習率。 2.減少過擬合,有輕微正則化效果。 3.減輕參數初始化的依賴,增強模型穩健性。4.適用於全連接層與卷積層等多種結構。