交叉熵(Cross-Entropy)是一種用於評估模型預測與真實標籤之間差異的損失函數,常見於分類任務。其核心是衡量預測分佈與目標分佈的相似程度,數值越小代表預測越準確。 當模型的預測與真實標籤完全不符 , y hat趨近 0 時 ,log(y hat) 會趨近負無窮,導致交叉熵損失非常大。因此,最大值取決於預測錯誤的程度和樣本數量。交叉熵適合用於多分類問題,能有效懲罰錯誤預測,幫助模型快速收斂。 適合用在 AI、機器學習等領域的關鍵技術! 🌟