📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》
📘 第 14周: 🧠 AI × MLOps × 太空網路資料管線
134/150單元:Federated Learning for LEO 🌐
多衛星協同訓練
________________________________________
🎯 單元導讀
地面 AI 的 Federated Learning(FL)已經成熟:
✔ 數百萬手機(Google FL)
✔ 多資料中心
✔ IoT 協同訓練
但到了 LEO 星座(數千顆衛星 × 每秒高速運動),
FL 變成完全不同的難度等級:
• 資料分布極度不均衡(不同軌道看見的通道差異大)
• 衛星之間連線「不是永遠在線」
• 星間光鏈(ISL)拓撲不固定
• 無法傳大量梯度(limited backbone capacity)
• 衛星有不同計算能力
因此,需要 Space-specialized Federated Learning。
這一單元要建立:
⭐ 多衛星協同訓練的完整 NTN FL 架構(Federated NTN Architecture)。
________________________________________
🧠 一、為什麼 LEO 星座需要 Federated Learning?
✔ 1. 每顆衛星看到的資料都不同(Non-IID)
例如:
• 北極、中緯度、赤道 → 完全不同 SNR 統計
• 海洋、沙漠、城市 → 反射與散射不同
• 航空 UE、地面 UE、海上 UE → 移動模型不同
單一模型無法涵蓋所有場景。
________________________________________
✔ 2. 無法把所有資料傳回地面
LEO → gateway → backbone
頻寬太珍貴,傳原始 CSI/SNR 不可能。
________________________________________
✔ 3. LEO 需要一致的行為(routing、beam control)
如果不同衛星使用不同模型:
→ ISL 路由失序
→ Beam handover 不一致
→ MCS 決策錯誤
→ 整個網路性能崩壞
所以需要 Federated Learning 保持整體一致性。
________________________________________
✔ 4. FL 減少 OTA 負擔
只傳 梯度或 model delta,不是傳原始資料。
________________________________________
🧠 二、LEO 專屬 Federated Learning 架構(五大元件)
下面是「Space × Ground 分層 FL 架構」。
________________________________________
① Local Training on Satellites(衛星本地訓練)
每顆衛星會在軌收集:
• CSI / SNR / Doppler
• Beam tracking 誤差
• Routing anomaly
• HARQ 失敗統計
• UE mobility pattern
並進行:
✔ local mini-batch training
✔ LoRA / Δ-weight 微更新
✔ online incremental learning
________________________________________
② Secure Gradient Compression(安全梯度壓縮)
因為不能傳 100+ MB 梯度,所以需要:
• quantization(8-bit / 4-bit)
• sparsification(只傳最重要 1%–5%)
• sketching(Count Sketch, Top-K)
• secure aggregation(同態加密)
這是 NTN-FL 的關鍵壓縮技術。
________________________________________
③ ISL Aggregation(透過星間光鏈合併梯度)
當多顆衛星透過 ISL 接上:
✔ plane aggregation(同一軌道面)
✔ cluster aggregation(區域內多平面)
✔ backbone aggregation(主幹衛星)
可以:
• 分批合併梯度
• 減少 gateway 壓力
• 下沉全球參數收斂負擔
ISL 背後其實就是一個「漂浮中的分散式 GPU 集群」。
________________________________________
④ Ground Station Global Aggregation(地面全域合併)
地面集中:
• 收集多衛星 delta
• FedAvg / FedProx 聚合
• 檢查 overfit / drift
• 維護模型版本(registry)
• output→ 新 global model
________________________________________
⑤ OTA Delta Update to Satellites(差分模型回傳)
傳回給衛星的不是整個模型,而是:
• Δ-weights
• LoRA adapters
• small FC layer update
• cosine-gradient correction
如此可讓整個星座:
⭐ 使用一致模型
⭐ 而不需每次傳 100+MB 大模型
________________________________________
🧠 三、ASCII 圖:LEO Federated Learning Pipeline
🛰🛰🛰 多顆 LEO 衛星
(Local Training)
│
▼
┌────────────────────────────┐
│ ① Local Training │
│ • CSI/SNR/Beam logs │
│ • mini-batch updates │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ② Gradient Compression │
│ • Quantization / Top-K │
│ • Secure Aggregation │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ③ ISL Aggregation │
│ • Plane-wise FedAvg │
│ • Multi-plane fusion │
└────────────────────────────┘
│
▼
🌍 Ground Station / Cloud MLOps
┌────────────────────────────┐
│ ④ Global Aggregation │
│ • FedAvg / FedProx │
│ • Drift detection │
└────────────────────────────┘
│
▼
┌────────────────────────────┐
│ ⑤ OTA Delta Model │
│ • LoRA / Δ-weights │
└────────────────────────────┘
│
▼
🛰 更新衛星模型
此示意圖描述 LEO 星座中的聯邦學習(Federated Learning, FL)完整管線。每顆低軌衛星首先利用自身量測到的 CSI、SNR 與波束行為紀錄進行本地訓練,透過小批次更新在不回傳原始資料的前提下學習通道與環境特性。為降低星間鏈路頻寬負擔與提升安全性,本地更新結果在回傳前會進行梯度壓縮與安全聚合處理。接著,模型更新可先於同一軌道平面內透過星間鏈路完成分層式聚合,再進一步融合至跨平面的全域模型。最終,地面站或雲端 MLOps 系統負責全域聚合(如 FedAvg 或 FedProx)、資料分布漂移偵測與模型驗證,並僅將差分權重或 LoRA 更新以 OTA 方式回傳至衛星,使星座在維持通訊穩定性的同時,持續進行分散式、可擴展且安全的模型演進。
________________________________________
🧠 四、LEO Federated Learning 的三大技術挑戰
________________________________________
1️⃣ Non-IID 資料(跨軌道差異巨大)
赤道線看到的 SNR 與極地完全不同。
FedAvg 容易崩。
解法:
✔ FedProx
✔ cluster-wise aggregation
✔ satellite-specific personalization layer
________________________________________
2️⃣ 通訊中斷(衛星不是一直在線)
衛星「過站才連到 gateway」。
模型同步節奏斷斷續續。
解法:
✔ asynchronous FL(非同步聚合)
✔ stale-update correction(時差校正)
________________________________________
3️⃣ 計算能力限制(衛星算力有限)
不能做完整反向傳播。
解法:
✔ LoRA / adapter-based learning
✔ gradient sparsification
✔ zero-order optimization(近似更新)
________________________________________
🧠 五、模擬題
________________________________________
1️⃣ 專業題
為什麼 LEO 星座中的 Federated Learning 必須壓縮梯度?
📜 答案:
因為 ISL 與星地頻寬有限,不可能傳輸大型梯度矩陣。
梯度壓縮(quantization / Top-K)能大幅降低頻寬負擔,讓 FL 實際可行。
________________________________________
2️⃣ 應用題
若多顆衛星的資料分布差異極大,應採用哪種 FL 方法?
A. FedAvg
B. FedProx
C. HARQ-based FL
D. MCS Shaping
📡 答案:B
👉 解析: FedProx 透過在本地目標函數中加入近端約束,可有效抑制非 IID 資料造成的模型發散,特別適合衛星間資料分布差異大的情境。
________________________________________
3️⃣ 情境題
某軌道面衛星連線不穩定,但仍需加入 FL 訓練,
應採用哪種模式?
A. synchronous FL
B. LoRA-only training
C. asynchronous FL
D. drop satellite
📦 答案:C
👉 解析: 非同步式聯邦學習允許節點在不同時間回傳更新,避免不穩定連線拖慢整體訓練進度,適合衛星通訊環境。
________________________________________
🛠 六、實務演練題
1️⃣ 模擬三軌道平面的 Non-IID 資料集
2️⃣ Implement FedProx 於 LEO 通道預測模型
3️⃣ 量化梯度 Top-K(1%、5%、10%)下的收斂差異
4️⃣ 測試 LoRA-based online update 與 FL 合併效果
5️⃣ 建立 ISL aggregation 模擬器(plane-wise FedAvg)
________________________________________
✅ 七、小結與啟示
✔ LEO FL 是 6G NTN 的核心:分散式訓練 × 一致行為
✔ 不能傳 raw data,只能傳梯度(或 delta)
✔ 必須壓縮梯度,否則 ISL / 星地頻寬撐不住
✔ FedAvg + FedProx + LoRA = LEO FL 三大支柱
✔ 多衛星協同訓練才能讓整個星座模型一致
✔ 最終目標:
⭐ 讓 3000 顆衛星像「一台分散式 AI 超級電腦」一起學習。














