與偏導數 (partial derivative) 不同,全導數 (total derivative) 乃根據所有分量 (而非僅是單一分量) 之微小移動、所產生的各別對於函數數值的貢獻,來逼近函數本身的「值」之微小改變。
此即:
dz = ∂z/∂x dx + ∂z/∂y dy
上式之文字敘述、為:函數本身的「值」之微小改變,等於其各個分量之微小移動、所產生的對於函數數值的貢獻,之加總。
在三維空間中,經由函數的位置向量 R⃗ 沿著 x、y 軸方向之微小移動、所得到的偏導數向量 dR⃗ₓ、和 dR⃗ᵧ,分別構成函數的切平面 (tangent plane) 之兩軸。
切平面沿著 x̂ 側的軸,即 dR⃗ₓ;沿著 ŷ 側的軸,即 dR⃗ᵧ。此二向量之加總,即是由切點出發、而行進至切平面的對角點之對角向量 dR⃗。
此即:
dR⃗ = dR⃗ₓ + dR⃗ᵧ
解析而言:
dR⃗ₓ 乃是沿著 x̂ 前進、走了 dx,再沿著 ẑ 往上、走了 dzₓ,所得到的向量。
dR⃗ᵧ 乃是沿著 ŷ 前進、走了 dy,再沿著 ẑ 往上、走了 dzᵧ,所得到的向量。
此即:
dR⃗ₓ = dx x̂ + dzₓ ẑ
dR⃗ᵧ = dy ŷ + dzᵧ ẑ
而在三維空間中,因 x 分量的微小移動、所產生的對於函數數值的貢獻、為 dzₓ;因 y 分量的微小移動、所產生的對於函數數值的貢獻、為 dzᵧ;對角向量 dR⃗ 之高、為 dz。
現在,我們要問的是,如何證明: dz = dzₓ + dzᵧ?
已知,切平面的兩軸,dR⃗ₓ、和 dR⃗ᵧ,之加總,即是對角向量 dR⃗;再將它們沿著 ẑ 往上行進的路程、置於最後項,即可得到所要的結果。
此即:
dR⃗ = dR⃗ₓ + dR⃗ᵧ
= (dx x̂ + dzₓ ẑ) + (dy ŷ + dzᵧ ẑ)
= dx x̂ + dy ŷ + (dzₓ + dzᵧ) ẑ
= dx x̂ + dy ŷ + (dz) ẑ
這就證明了:
dz = dzₓ + dzᵧ
用向量相加的方法、給予全導數以幾何的直觀意義,十分地簡單直接。而事實上,前段的敘述、即是畢氏定理在三維空間的推廣。
進而,二維的梯度向量 (gradient vector) 亦可以視為是斜率導數 (slope derivative) 在二維平面上的推廣。
此即:
dy = y′(x) dx
dz = ∂z/∂x dx + ∂z/∂y dy
= ∇ z(x, y) · dR⃗𝓏₀
其中,dR⃗𝓏₀ 為對角向量 dR⃗ 在 xy 平面上的投影。
然而,二維的梯度向量 ∇ z(x, y) 卻應視為是三維空間的梯度向量 ∇ w(x, y, z) 在 xy 平面上的投影,亦即,是一種壓縮。
是故,一般化而言,可以將在三維空間中的位置向量 R⃗ 表示為:
R⃗ = (x, y, z(x, y))
其全導數為:
dR⃗ = dR⃗ₓ + dR⃗ᵧ
= ∂R⃗/∂x dx + ∂R⃗/∂y dy
= (1, 0, ∂z/∂x) dx + (0, 1, ∂z/∂y) dy
= (dx, dy, ∂z/∂x dx + ∂z/∂y dy)
= (dx, dy, ∇ z(x, y) · dR⃗𝓏₀)
而最後之分量,即是切平面的兩軸,dR⃗ₓ、和 dR⃗ᵧ,沿著 ẑ 往上行進的路程之加總。