其實摸機器學習、深度學習也有一陣子了,雖然大致上都理解,不過有些細節若不是那麼清楚,我也沒仔細去弄懂。今天剛好在《強化式學習:打造最強 AlphaZero 通用演算法》這本書看到之前略過的幾個名詞,書中有解釋其背後代表的東西的功能,在此記錄下來,以後又忘掉時可回來查看。
"激活函數"(activation function):主要應用於神經層中各神經元的輸出運算,目的在幫助神經網路從數據中學習複雜的規則,例如sigmoid函數、softmax函數等。
"損失函數"(loss function):計算模型的預測值和標籤之間的誤差—損失值,之後將損失值交給優化器進行模型的優化。例如多類別分類的categorical_crossentropy。
"優化器"(optimizer):會根據損失值,修正神經網路中各層的權重,目標是將損失值減到最小。例如Adam。
"評估指標"(metrics):用於評估訓練的成效,在訓練及評估模型時提供作為參考。例如準確率acc。
《強化式學習:打造最強 AlphaZero 通用演算法》
繼續趕路,繼續留腳印(XD),端午節快樂!