Batch Normalization

閱讀時間約 1 分鐘

Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。

1.加速模型訓練,支持更高學習率。

2.減少過擬合,有輕微正則化效果。

3.減輕參數初始化的依賴,增強模型穩健性。

4.適用於全連接層與卷積層等多種結構。

raw-image



avatar-img
0會員
33內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
你可能也想看
Google News 追蹤
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~