📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》
📘 第 14周: 🧠 AI × MLOps × 太空網路資料管線
133/150單元: Online Learning 🔄衛星在軌即時模型更新**________________________________________
🎯 單元導讀
地面 AI 模型更新很簡單:
「拉資料 → 訓練 → 上線 → 滾動更新」。
但 LEO 衛星不是這樣。
它們 7.5 km/s 高速移動,接收資料不連續,通道快速時變,且無法頻繁下載大型模型。
因此要回答三個核心問題:
❓ 衛星如何在軌即時更新模型(Online Learning)?
❓ 如何避免頻繁 OTA 導致通訊負擔?
❓ 如何確保更新後不破壞整個星座的「模型一致性」?
本章將建立一套完整的 Space × Ground Online Learning Pipeline。
________________________________________
🧠 一、為什麼 LEO 衛星需要 Online Learning?
✔ 1. 通道環境高速變化
Doppler、beam tracking、SNR drift、CSI selectivity 都會隨軌道快速改變。
✔ 2. 星座跨軌道差異巨大
不同平面(plane)、不同 inclination 造成資料分布(distribution)不同。
模型若不更新 → 立即 drift。
✔ 3. 路由與 beam 控制需「即時」
Routing、ISL pointing、MCS 決策,都不能等地面一天更新一次。
✔ 4. OTA 更新成本高
大模型動輒數百 MB,不可能每天從地面全量更新。
因此衛星必須具備:
⭐ 模型在軌自我學習的能力(Online Learning)
⭐ 僅下載差分(delta)或輕量更新的能力
________________________________________
🧠 二、Space–Ground Online Learning 架構(五大流程)
________________________________________
① On-Orbit Data Capture(衛星在軌資料擷取)
以下資料自動打包成「online training mini-batches」:
• CSI snapshots
• SNR drift logs
• UE mobility pattern
• beam tracking 誤差
• ISL pointing / jitter data
• routing anomaly logs
• RIC inference feedback
這些資料會存到衛星本地:
✔ onboard ring buffer(有限容量)
✔ 定期壓縮(entropy coding + quantization)
✔ 分層儲存(health / routing / RF)
________________________________________
② Lightweight Feature Extraction(輕量特徵抽取)
不能在衛星上跑重模型,必須:
✔ 轉 sparse feature
✔ dimensionality reduction(PCA / autoencoder encoder-side)
✔ quantized encoding(8-bit / 4-bit)
✔ small CNN / MLP edge model
例如:
• Doppler drift → scalar
• beam offset → 2D feature
• CSI statistics → mean / variance / rank
• ISL pointing → error vector
• SNR trace → short-time FFT
這樣才能節省 onboard GPU/TPU 資源。
________________________________________
③ Online Mini-Batch Learning(在軌即時學習)
衛星本地執行:
• online SGD
• incremental learning
• reinforcement-based updates
• federated aggregation(僅傳梯度)
• EMA(exponential moving average)模型平滑
更新方式包括:
✔ Δ-weights(差分更新)
✔ Low Rank Adaptation(LoRA)
✔ partial fine-tuning(僅更新最後幾層)
重點:
⭐ 不是整個模型重訓,而是「微更新」。
________________________________________
④ Secure Model Sync(與地面 MLOps 同步)
同步方式採:
✔ FedAvg(多衛星模型平均)
✔ FedProx(跨衛星差異較大時使用)
✔ Secure Aggregation(加密梯度)
✔ model-delta-only(傳差分,而非全模型)
✔ OTA 差量更新(避免占用頻寬)
地面負責:
• global validation
• drift detection
• rollback control
• model registry
• version governance
________________________________________
⑤ On-Orbit Deployment(更新部署)
部署在衛星上必須:
✔ 原子化更新(atomic update)
✔ rollback-ready(故障自動回滾)
✔ version switching(雙模型 A/B)
✔ resource-aware(判斷 GPU 是否可用)
最後衛星會:
⭐ 切換為新模型
⭐ 保留舊模型以備 rollback
________________________________________
🧠 三、ASCII 圖:Space × Ground Online Learning Pipeline
🛰 On-Orbit Satellite (Edge AI)
│
▼
┌────────────────────────────┐
│ ① Data Capture & Buffering │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ② Feature Extraction │
│ • CSI / SNR / Doppler │
│ • Beam / ISL metrics │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ③ Online Mini-Batch Learn │
│ • SGD / LoRA / Δ-weights │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ④ Secure Model Sync │
│ • FedAvg / FedProx │
│ • Delta OTA │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ⑤ On-Orbit Deployment │
│ • Atomic Update │
│ • Rollback │
└────────────────────────────┘
此示意圖描述一套 Space × Ground 協同的線上學習(Online Learning)管線,用以支援低軌衛星在軌即時適應通道與拓撲變化。流程始於衛星端的資料擷取與緩衝,針對即時量測到的 CSI、SNR、多普勒特性、波束與星間鏈路指標進行特徵萃取;接著,衛星邊緣 AI 透過小批次線上學習機制(如 SGD、LoRA 或權重增量更新)在有限算力下持續微調模型,以快速回應環境變化。模型更新後,僅將差分權重透過安全同步機制回傳地面,並結合聯邦學習策略(如 FedAvg、FedProx)完成跨衛星的全域聚合。最終,經驗證的模型更新以原子化方式重新部署至在軌衛星,並保留回滾能力,以確保星座在持續學習過程中的穩定性與安全性。
________________________________________
🧠 四、LEO Online Learning 的三大困難
1. Data Drift(資料分布漂移)
每個衛星看到的資料不同 → 不能用單一模型。
2. Intermittent Connectivity(不連續連線)
衛星過站才有時間把梯度送回地面。
3. Hardware Constraint(算力有限)
衛星的 GPU/ASIC 都非常節制。
不能做重訓,只能做微調。
________________________________________
🧠 五、模擬題
1️⃣ 專業題
為什麼 LEO 衛星不適合頻繁進行「全模型 OTA 更新」?
📜 答案:
因為 OTA 需要大量頻寬且需跨星地傳輸。
LEO 又高速移動、連線斷斷續續,且模型通常過大。
因此必須採差分更新(Δ-weights),避免占用過多 ISL/星地頻寬。
________________________________________
2️⃣ 應用題
在軌模型更新若只更新最後兩層,這屬於哪種方法?
A. Federated Aggregation
B. Partial Fine-Tuning
C. Model Rotation
D. HARQ-based Learning
📡 答案:B
👉 解析: 僅微調模型後段層級可在保留既有通用特徵的同時快速適應新環境,並大幅降低在軌運算與風險成本。
________________________________________
3️⃣ 情境題
若某衛星在短時間內出現極端 SNR drift,Online Learning 應採用哪種補救方法?
A. LoRA(低秩更新)
B. Model Full Reset
C. Beam Redraw
D. 停止所有 ISL routing
📦 答案:A
👉 解析: LoRA 透過低秩權重調整即可快速吸收突發通道變化,避免全模型重訓造成的不穩定與算力負擔。
________________________________________
🛠 六、實務演練題
1️⃣ 利用真實 LEO 模擬器測試 online SGD 收斂速度
2️⃣ 在地面訓練 global model → 在軌使用 LoRA 微調
3️⃣ 以 FedAvg 模擬多衛星 aggregation
4️⃣ 設計 model rollback 機制
5️⃣ 測試 CSI / Doppler drift 對 online learning 的影響
________________________________________
✅ 七、小結與啟示
✔ LEO 需要的是「微型、即時、安全」的模型更新
✔ Online Learning 是 6G NTN 最大特徵之一
✔ 結合 FedAvg × Δ-weights 才能降低 OTA 負擔
✔ 衛星必須可以自我學習(edge learning)
✔ 地面 MLOps 則負責全域一致性與 rollbacks
一句話:
⭐ LEO 衛星不是被動接收模型,而是能在軌自主學習的智能節點。
這就是 AI-native 太空網路的本質。














