終於講到向量內積和方向導數,這會是之後梯度(Gradient),梯度下降是人工智慧訓練模型的重要概念。了解這個概念之前要先複習「向量內積」的公式
內積公式的兩種寫法,我個人喜歡用國中理化的方式理解:做功
向量內積的意義:
如果 cosθ=1,兩向量方向完全相同,內積等於向量大小的乘積。所以同向
圖片截圖自:https://youtu.be/8tTh-SIhZW0?si=zDDftp6lHIw-MoQF
內積的計算方法
內積還可以用分量來計算:
先記住這兩個概念
想像你站在一個山丘上,周圍的地形起伏不平。計算梯度向量先看哪個最陡, 根據向量的長短,再計算該方向的變化速率。
梯度向量(Gradient Vector):
方向導數(Directional Derivative):
-----------------------------------------------------------------
梯度是一個向量,表示函數在每個自變數方向上的偏導數值:
以這個圖來說,就是看 Z 在對 Y。
二變數函數是U型 (參考 ChatGPT)
以上是我為學習AI理論前再複習數學觀念的筆記,如有錯誤請不吝指正~