📘 《AI 時代系列(6):進階通訊工程——邁向2035年 AI × 低軌衛星 × 6G工程師》
1/100 第一週:📌 🌐 破解通訊世界的語言:AI × 通訊的數學底層
1. ML 通訊數學前導 🧠 通訊 × AI 的共同語言
🎯 **單元導讀
—— AI 與通訊,看似不同,其實講的是同一種「數學語言」**
很多初學者以為:
AI 是 AI、通訊是通訊,兩個領域完全不同。
但事實完全相反。
從 5G → 6G → LEO 星鏈 → RIS → Massive MIMO → NTN
所有未來通訊核心能力,全部靠 AI × 通訊數學的融合。
而 AI 與通訊工程的底層語言,驚人地一致:
- 向量、矩陣、特徵空間
- 機率、隨機過程、雜訊模型
- 最佳化
- 訊號空間、線性代數、傅立葉
- 貝氏更新、MAP/ML 判決
- Convex / Non-convex、Gradient Descent
這,就是本章的核心目標——
帶你看出 AI 與通訊其實講的是同一套數學語言,只是應用領域不同。
🧠 一、ML × 通訊的共同語言:數學基石全解析
1️⃣ 向量空間:AI Feature Vector = 通訊 Signal Vector
AI 的特徵向量:
x=[x1,x2,...,xn]
通訊的信號向量:
s=[s1,s2,...,sn]
兩者都是:
- 在 n 維空間中的一點
- 需要被分類、判決、還原
- 透過距離(Euclidean / ML 判決)決定結果
👉 AI 是在分類圖片,通訊是在分類星座點(Constellation Points)。
2️⃣ 機率與雜訊:AI 的 Noise = 通訊的 Channel Noise
通訊最基本的公式是:
y=x+ny
AI 訓練資料則是:
x~=x+ϵ
兩者本質相同:
AI
通訊
資料噪聲 ε
通道雜訊 n
想找出最可能的 y
想還原最可能的 s
用 Loss 逼近真值
用 ML/MAP 決策找出 sent symbol
👉 AI 的 Noise Robustness 與 通訊的 Channel Coding 本質相同:抗雜訊。
3️⃣ 最佳化:Gradient Descent = Power Allocation / Beamforming
AI 用:
θ←θ−η∇L(θ)
通訊用:
- Beamforming 權重最佳化
- MIMO power allocation
- Channel estimation 最小化 MSE
- RIS phase-shift 最佳化
全部也都是:
尋找能讓某個 Loss(SINR、BER)最小/最大化的參數。
👉 AI 的「模型參數」 = 通訊的「Beamforming / RIS 參數」。
4️⃣ 機率決策:Softmax = MAP / ML 判決
AI 的 Softmax:
P(y=i∣x)=e^zi / ∑je^zj
這行數學在說:
· 你輸入一個向量 x(例如圖片的特徵)
· 神經網路輸出一組「分數」 z1,z2,...,zkz_1, z_2, ..., z_kz1,z2,...,zk
· Softmax 將這些分數轉換成每一類別的機率
例如:
類別:貓
- 分數 z = 1.2
- Softmax 機率 P(y = 貓 | x) = 0.15
類別:狗
- 分數 z = 2.9
- Softmax 機率 P(y = 狗 | x) = 0.80
類別:鳥
- 分數 z = 0.5
- Softmax 機率 P(y = 鳥 | x) = 0.05
Softmax 最後會選:
「哪個類別的機率最大」
通訊的 ML/MAP 判決:
s^=arg max P(y∣s)
這是通訊工程用來判斷「發送的是哪個星座點 s」的公式。
- y:接收到的訊號
- s:星座點(例如 QPSK、16QAM 的點)
- P(y∣s):若發送 s,收到 y 的機率
公式說的是:
選出讓接收訊號 y 的機率最大的星座點。
也就是:
s^=最有可能被發送的符號
這兩個邏輯一模一樣:
找出最可能的分類 / 最可能的星座點。AI 的 Softmax 與通訊中的 ML/MAP 判決本質完全相同——兩者都是在所有候選結果中,選出「機率最大」的那一個。Softmax 將神經網路輸出的分數轉成各類別的機率,最後挑選 arg maxi P(y=i∣x);通訊接收端則以 ML/MAP 判決式 argmaxs P(y∣s)
P(y∣s) 找出最可能被發送的星座點。兩者其實都是同一種數學動作:在一組可能的 Label 或 Symbol 中,根據機率最大化選出最合理的結果。因此,Softmax 的分類器就是通訊工程的 symbol detector,只是應用場景不同,底層數學完全一樣。
5️⃣ 隨機過程:AI 的 Data Distribution = 通訊的 Fading Model
通訊的衰落模型:
- Rayleigh
- Rician
- Nakagami
AI 的資料分佈:
- Gaussian
- Uniform
- Multimodal
本質都是在處理:
「資料不是固定的,是服從某種隨機分佈。」
💻 二、ASCII 示意圖:AI × 通訊其實是一條共同的數學管線
📡 通訊系統訊號流程
─────────────────────
│ 傳輸信號 s → 通道 h → 加雜訊 n → y │
└────────────────────
↓ 數學語言相同
┌────────────────────
│ AI 模型輸入 x → 權重 W → 損失 L → 優化 │
└────────────────────
統一起來看:
Signal / Feature Vector (向量空間)
Noise / Data Uncertainty (機率)
ML/MAP / Softmax Decision (決策理論)
Gradient Descent / Beamforming (最佳化)
👉 通訊工程 = 機器學習的特殊應用領域。
🧩 三、模擬題(專業+應用型)
1️⃣ 專業題
AI 與通訊工程的數學基礎有哪些共同點?向量空間、機率模型、最佳化如何在兩者中扮演角色?
✅ 回答
AI 與通訊都依賴向量空間:通訊用向量表示訊號、通道、MIMO;AI 用向量表示特徵與模型參數。
兩者皆需要機率模型:通訊建模雜訊、fading;AI 建模輸入資料的分布與 likelihood。
最佳化在雙方都是核心:通訊用來最佳化 BER、SINR;AI 用來最小化 Loss。
本質上 AI 訓練模型 = 優化通訊參數(功率、相位、beamforming)。
2️⃣ 應用題
如何設計 ML Loss 來對應通訊的 BER / SINR?CSI 如何轉成可訓練特徵?
✅ 回答
若要最小化 BER,可用 MSE 或 Cross-Entropy 作為 Loss,因其能逼近 log-likelihood。
SINR 最大化可用 L = −SINR 作為可微分的 ML Loss,使 SINR↑ ⇒ Loss↓。
CSI(複數矩陣)可拆成 Real/Imag 並串接成向量作為模型輸入特徵。
Rayleigh/Rician fading 分布直接對應 ML 的資料分布,影響訓練資料的隨機性。
通道估測等同 ML 的「前處理」,用來把物理訊號轉成可學習的特徵。
3️⃣ 情境題(精簡版)
AI 如何利用通道預測(未來 CSI)提前最佳化 p、Θ(RIS)、W(Beamforming)?
✅ 回答
AI 可以用時間序列 CSI(h(t-1), h(t-2)…)預測未來通道狀態,並提前調整參數。
SINR 最大化可定義 Loss = −SINR(p, Θ, W),讓模型以梯度方式更新參數。
功率分配 p、RIS 相位 Θ、beamforming W 都可視為可微分參數,適合用 Backprop 更新。
Beamforming 本質上是向量投影問題,用 ML 可找到對「未來」通道更佳的投影方向。
因此 AI 能提前做出比傳統最佳化更快、更準的通道自適應。
✅ 四、小結與啟示
- AI × 通訊的數學語言是「同一套東西」。
- 通訊中的 訊號、雜訊、通道、估測、最佳化 = AI 中的 特徵、噪聲、模型、推論、梯度下降
- 6G/LEO/RIS 之所以需要 AI,是因為:
「未來的通訊問題,都是大型最佳化與預測問題。」
- 這一章的重要意義:
👉 讀懂這一章,你就真正理解 AI × 通訊不是跨領域,而是同一語言的兩個世界。















