一、什麼是「擬合(fitting)」?
- 定義:擬合就是「模型學習資料的程度」。當你用資料訓練一個 AI 模型,這模型就會試著「找出資料中的規律或關係」。
- 擬合的三種狀態比喻(用考試來理解):

二、什麼是「過擬合(Overfitting)」?
定義:當模型「學得太好」,導致不只學到資料的規律,也記住了雜訊或異常點,造成在新資料上表現變差,就叫做過擬合。
類比說法:像是一個學生死背考古題,模擬考滿分,但正式考試換題型就掛掉,因為他不是「理解」,而是「記死」。
解決方法:- 使用 正則化(Regularization)
- 加入 Dropout
- 增加資料量、擴增資料
- 提早停止訓練(Early Stopping)
- 拆分訓練集/驗證集/測試集(避免過學)
三、正則化與 Dropout
- 正則化(Regularization)=「別讓模型太執著」
想像模型像一位學生,他想把每道題目都解得完美到極致。 正則化就像老師告訴他:「寫重點就好,不要花太多力氣在冷門細節上。」
技術上:在損失函數中加上一個懲罰項(penalty term),讓模型不要太偏好某些權重過大的特徵。
- Dropout(隨機遮蔽)=「隨機讓同學請假」
神經網路就像一群學生一起解題,有些學生總是太聰明,一直搶答,其他人都不動腦。Dropout 就像老師說:「這堂課我隨機請幾個人先去操場散步,剩下的人要自己想答案喔~」
技術上:訓練時隨機「關閉」一部分神經元,防止模型過度依賴特定路徑。
























