📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》
📘 第 14周: 🧠 AI × MLOps × 太空網路資料管線
135/150單元:Edge-Space AI 優化 ⚡
量化、壓縮、蒸餾以省算力**
________________________________________
🎯 單元導讀
在地面機房,你可以用:
✔ 7× H100
✔ 1TB RAM
✔ 20kW 機櫃功率
但在 LEO 衛星上,你只有:
✔ 30W–80W 的 AI ASIC
✔ 數百 MB ~ 2GB 的 RAM
✔ 嚴格的熱限制(散不掉就會燒掉)
✔ 極為有限的 Flash 儲存空間
因此太空 AI 必須完全走另一條路:
⭐ 輕量、低功耗、耐輻射、可即時更新的模型。
這一節就是教:
如何用「量化 × 壓縮 × 蒸餾」
把原本 200MB 的模型縮到 8MB、2MB、甚至幾百 KB,
仍然能在衛星上高速安全地跑。
________________________________________
🧠 一、為什麼太空 AI 必須瘦身?
✔ 1. 算力受限
LEO 上的 ASIC 只能做 8-bit、4-bit 推論。
✔ 2. 記憶體超級有限
太空級 RAM 和 LPDDR 都是「削到骨頭」。
✔ 3. 熱管理困難
在真空中散熱是大問題(沒有空氣)。
✔ 4. 功率極低
衛星的全部 Payload 功率在 300–800W,AI 只能分一小塊。
✔ 5. OTA 模型更新成本極高
傳一個 100MB 的模型要吞掉大量下行頻寬。
所以:
⭐ 模型必須「夠小、夠快、夠省」,才能在太空真正運行。
________________________________________
🧠 二、三大核心技術:量化 × 壓縮 × 蒸餾
________________________________________
① Quantization(量化)— 把模型變成 8bit、4bit、甚至 2bit
量化是 Edge-Space AI 的第一招。
常用量化方式:
• 8-bit INT quantization(最穩定)
• 4-bit weight-only quantization
• 2-bit / ternary quantization(超激進)
• per-channel scaling(保精度)
• QAT(Quantization-Aware Training)
量化的效果:
類型 大小縮小 推論加速 精度損失
8 bit 4× 2–4× 極低
4 bit 8× 4–6× 低~中
2 bit 16× 6–10× 中~高
為什麼太空要量化?
因為:
✔ 可降低功耗
✔ 可降低記憶體帶寬
✔ 可降低熱負載
✔ 適合太空 ASIC
________________________________________
② Model Compression(壓縮)— 砍參數、剪枝、稀疏化
壓縮的目標是:
⭐ 把模型變瘦,但保持 90% 以上能力。
常見壓縮方法:
• structured pruning(剪掉整個 channel)
• unstructured pruning(稀疏化稀疏矩陣)
• low-rank factorization(SVD、LoRA-style)
• tensor decomposition
太空場景下的重點:
✔ structured pruning 最穩(不破壞硬體)
✔ sparse weight 硬體要支援才有效
✔ LEO 必須保留 latency-critical layer(例如 routing)
________________________________________
③ Knowledge Distillation(知識蒸餾)— 用大模型教小模型
蒸餾是 Edge AI 的神技:
⭐ 大模型 = Teacher
⭐ 小模型 = Student
小模型會學到 Teacher 的輸出分布、特徵空間與決策邏輯。
蒸餾的優勢:
✔ 最能保留準確度
✔ 小模型變得「懂規律」不是死記硬背
✔ 非常適合衛星 routing、beam 控制、MCS 推論
太空專用蒸餾策略:
• distill logit(soft target)
• distill embedding
• distill feature map
• distill policy(強化學習路由)
最終:
⭐ 可把 200MB → 10MB
⭐ 仍然保持 95% 性能
________________________________________
🧠 三、Edge-Space AI 優化管線(六步流程)
(1) 大模型 Teacher (地面)
│ Pre-train + Fine-tune
▼
(2) 模型剪枝 / SVD / LoRA 壓縮
▼
(3) 量化 (8bit/4bit)
▼
(4) 知識蒸餾 → 小模型 Student
▼
(5) Δ-weight + LoRA OTA 更新
▼
(6) On-Orbit 推論與 Online Learning
地面以大模型完成訓練後,透過剪枝、壓縮與量化縮小模型,再以知識蒸餾生成小模型,僅用差分權重進行 OTA 更新,最終在衛星上進行推論並持續線上學習。
這就是太空 AI 最完整的 pipeline。
________________________________________
🧠 四、哪種任務最需要 Edge-Space 優化?
以下這些都是衛星上要「本地即時推論」的任務:
(延遲不能等地面)
⭐ 1. Beam Steering(波束指向)
要在毫秒級更新 — 模型必須超快。
⭐ 2. Routing Decision(星間路由)
星鏈 ISL 路由錯一次,延遲可能增加 50–120ms。
⭐ 3. CSI Prediction(通道預測)
LEO 通道 coherence time 很短,模型必須輕。
⭐ 4. SNR / MCS 推論
也是毫秒級。
⭐ 5. Anomaly Detection(攻擊、假訊號偵測)
不能等地面通知。
________________________________________
🧠 五、ASCII 圖:Edge-Space 模型瘦身流程
┌──────────────┐
│ Teacher Model │ (地面)
└──────────────┘
│
SVD / Pruning / LoRA
▼
┌──────────────┐
│ Compressed │
│ Model │
└──────────────┘
│
Quantization
▼
┌──────────────┐
│ Student │
│ (Small Model) │
└──────────────┘
│
OTA Delta
▼
🛰 On-Orbit Satellite
(推論 + online fine-tune)
此流程說明衛星 AI 模型由地面訓練到在軌部署的瘦身與落地機制。首先在地面以 Teacher Model 完成完整訓練,再透過 SVD、剪枝與 LoRA 等方法進行結構與參數壓縮,降低模型複雜度;接著進行量化以符合在軌算力與記憶體限制,並產生可部署的 Student 小模型。最終僅透過差分權重(OTA Delta)進行更新,使模型能在衛星上執行推論並進行有限度的線上微調,以持續適應實際太空環境。
________________________________________
🧠 六、模擬題
________________________________________
1️⃣ 專業題
為什麼 8-bit 量化特別適合 LEO 衛星?
📜 答案:
因為 8-bit 是效能、功耗與精度之間的最佳平衡點,可大幅降低 RAM 與計算消耗,同時保持主流模型 95% 以上的精度,非常適合太空 ASIC。
________________________________________
2️⃣ 應用題
若衛星想在本地執行 MCS 預測模型,但 RAM 不足,最佳做法是?
A. 增加星間光鏈頻寬
B. 將模型蒸餾成小型 Student
C. 上傳所有資料給地面
D. 減少 CSI 回報
📡 答案:B
👉 解析: 知識蒸餾可將大模型的決策能力轉移至小模型,在大幅降低記憶體需求的同時,仍保有可接受的預測效能。
________________________________________
3️⃣ 情境題
某模型執行後溫度過高,衛星熱負載上升,應優先採用?
A. 增加天線功率
B. Structured pruning
C. 全模型重訓
D. 增加 OTA 更新頻率
📦 答案:B
👉 解析: 結構化剪枝可直接減少實際運算單元與記憶體存取量,降低功耗與發熱,比單純調參或重訓更即時有效。
________________________________________
🛠 七、實務演練題
1️⃣ 用 Teacher→Student 蒸餾做 LEO Routing 小模型
2️⃣ 對 CSI Predictor 做 8-bit/4-bit 量化比較
3️⃣ 使用 SVD 分解 LSTM/Transformer 的權重矩陣
4️⃣ 用 Top-K pruning 減少 70% 參數後測 delay
5️⃣ 評估蒸餾後 Student 模型在 LEO 軌道上的推論速度
________________________________________
✅ 八、小結與啟示
✔ Edge-Space AI 必須「小、快、省、冷」
✔ 量化=減 RAM × 省功耗 × 加速
✔ 壓縮=把冗餘參數砍掉
✔ 蒸餾=保留 Teacher 能力、Student 更瘦
✔ OTA 必須只傳 Δ-weights
✔ 最終目標:
⭐ 在 80W 功耗的太空 ASIC 上跑出「媲美資料中心」的智慧推論。
一句話:
🌌 AI-native 太空網路的核心不是大模型,而是「瘦而聰明的模型」。














