「張量」(Tensor)其實是一個在數學與物理中非常核心的概念,可以理解為:
👉 比「數字、向量、矩陣」更高階、能描述多維關係的數學物件
本質上是一種描述多維關係的數學物件,可以看成是「標量、向量、矩陣的統一升級版」,廣泛用於物理、機器學習與工程。我們一步一步用直覺來理解:
一、從簡單到複雜理解
從低維一路往上看
你可以把張量理解為「維度逐步升級」:

👉 所以:
- 向量 = 1階張量
- 矩陣 = 2階張量
- 更高維 = 高階張量
1️⃣ 純量(Scalar)
就是一個數字
例如:
- 溫度 = 30°C
- 質量 = 5 kg
👉 0階張量
2️⃣ 向量(Vector)
有方向的一組數
例如:
- 速度 (vx, vy, vz)
- 力 (Fx, Fy, Fz)
👉 1階張量
3️⃣ 矩陣(Matrix)
二維數據(表格)
例如:
- 2D線性變換
- 圖片(灰階影像)
👉 2階張量
4️⃣ 張量(Tensor)
👉 任意維度的數據結構
例如:
- 3維:影片(寬 × 高 × 時間)
- 4維:AI資料(batch × 高 × 寬 × 通道)
- 更高維:物理場、神經網路權重
👉 n階張量 = n維資料
二、真正關鍵(不是「多維陣列」而已)
很多人會說「張量就是多維陣列」,但這只是表面。
真正核心是:
👉 張量的「變換規則」
當你改變座標系(例如旋轉空間)時:
- 普通數據會亂掉
- 張量會「按照特定規則變換」,但物理意義保持不變
這點在物理裡極重要,例如:
- 應力(stress)
- 電磁場
- 時空曲率
如果只說「張量 = 多維陣列」,其實還不夠精確。
👉 真正的定義是:
張量是一種在座標變換下,遵守特定轉換規則的數學物件
或是
👉 張量 = 可以在不同座標系下保持物理意義不變的多維數據結構
這一點在物理非常重要,例如:
三、為什麼物理一定要用張量?
在 廣義相對論 中:
- 重力 ≠ 力
- 重力 = 時空彎曲
這個彎曲用一個張量描述:
👉 度規張量(metric tensor)
它告訴你:
- 距離怎麼量
- 時間怎麼流
- 光怎麼走
甚至:
👉 愛因斯坦場方程 本質就是:
「張量 = 張量」
(幾何 = 能量)
- 不同觀察者(不同座標系)
- 測量結果會不同
但物理定律必須不變
👉 張量可以確保:
換座標後,物理定律形式保持一致
經典例子:
1️⃣ 壓力 / 應力(Stress Tensor)
描述一個物體內部各方向的力
👉 不能用單一數或向量表示
👉 必須用張量
2️⃣ 度量張量(Metric Tensor)
描述空間如何「測量距離」
👉 在相對論中決定:
- 時間如何流動
- 空間如何彎曲
四、AI / 深度學習中的張量
在 AI 裡(例如 TensorFlow 或 PyTorch):
張量 = 多維數據容器
例如:
- 圖像:
(高度, 寬度, 顏色通道) - 影片:
(時間, 高, 寬, 通道) - LLM:
(batch, sequence, embedding_dim)
👉 GPU 其實就是「張量運算機器」
在 AI 裡你時常都在用張量:
- 圖片: (高度, 寬度, 顏色通道)
- 一批圖片: (batch, 高, 寬, 通道)
- Transformer:高維注意力矩陣
👉 像:
- TensorFlow
- PyTorch
名字、內容裡都有 Tensor,就是因為:
👉 整個 AI = 張量運算
五、最直觀一句話總結
👉 張量 = 可以在任何座標系下保持物理意義的多維數學結構
六、如果你想更深入(進階理解)
張量其實可以用更抽象方式定義:
👉 它是「線性映射」的一種
👉 可以把向量轉換成:
- 向量
- 純量
- 或更高維物件
例如:
- 向量 → 純量(內積)
- 向量 → 向量(線性變換)
張量可以理解為:
👉 一種多線性映射(multilinear map)
也就是:
- 可以吃多個向量
- 輸出一個數值或另一個張量
例如:
- 內積(dot product)就是一個簡單張量
七、超直覺比喻
你可以這樣想:
- 純量:一個數字
- 向量:一支箭
- 矩陣:一個「變形工具」
- 張量:👉 描述整個世界如何被變形的規則系統
想像你在描述世界:
- 標量:一個數(溫度)
- 向量:一個方向(風)
- 矩陣:一個變換(旋轉)
- 張量:👉 描述「空間如何被扭曲」的規則
八、為什麼它這麼重要?
張量是現代科學的共通語言:
- 物理:時空、場論
- 工程:應力分析
- AI:神經網路
- 量子:態與運算

















